technologie

L’expression « intelligence artificielle » est sur toutes les lèvres, sous toutes les plumes. Cette notion convoque les imaginaires, dépeint notre vision de l’avenir sur les réalités décrites dans les livres et les films de science-fiction. Mais qu’en est-il exactement ? À quoi fait référence l’intelligence artificielle ? À quoi devons-nous nous attendre à l’avenir ? Quels en seront les impacts politi
ques ? Le propos de ce texte consistera à poser des jalons en vue de répondre à ces questions fondamentales.

I. Définition

  • Définition générale L’intelligence artificielle est la branche de l’informatique visant à répliquer les capacités d’apprentissage humaines. On qualifie d’intelligentes les machines capables, par exemple, de reconnaissance faciale et vocale, de planification, de résolution de problèmes mathématiques, d’apprentissage et création de musique, etc.

L’intelligence artificielle est définie comme la capacité d’un ordinateur numérique ou d’un robot commandé par ordinateur à effectuer des tâches communément associées à des êtres intelligents. Le terme est souvent appliqué au projet de développement de systèmes dotés des processus intellectuels caractéristiques des humains, tels que la capacité de raisonner, de découvrir des sens, de généraliser ou d’apprendre de l’expérience passée.

Depuis le développement de l’ordinateur numérique dans les années 1940, les machines sont programmées pour exécuter des tâches. Avec le temps, celles-ci ont été en se complexifiant. Très tôt, elles ont été capables de découvrir des preuves de théorèmes mathématiques ou jouer aux échecs avec une grande compétence. Cependant, en dépit des progrès continus dans la vitesse de traitement informatique et la capacité de mémoire, aucun programme ne rapproche de l’immense complexité de l’intelligence humaine. Il n’y a pas encore de programmes qui peuvent correspondre à la flexibilité humaine sur des domaines plus larges ou dans des tâches nécessitant beaucoup de connaissances quotidiennes. D’autre part, certains programmes ont atteint les niveaux de performance d’experts et de professionnels dans l’exécution de certaines tâches spécifiques, de sorte que l’intelligence artificielle est limitée à des applications aussi diverses que le diagnostic médical, les moteurs de recherche et la reconnaissance vocale.

  • La percée de l’intelligence artificielle Depuis une soixantaine d’années, des chercheurs annoncent que « l’intelligence artificielle » est pour demain, en vain. Trois paramètres laissent à penser que cette fois-ci la donne est différente et que la généralisation de l’intelligence artificielle est proche. Le premier tient à la multiplication des possibilités matérielles de créer des « réseaux de neurones » informatiques, notamment à travers du développement bon-marché des cartes graphiques. Ce matériel plus performant et moins cher permet un essor des applications en matière d’intelligence artificielle. Le deuxième paramètre est lié au développement fulgurant du « big-data ». Toute intelligence doit être instruite. Une intelligence artificielle est en fait une machine apprenante. Un programme informatique jouant aux échecs, aussi sophistiqué soit-il, a besoin de jouer des milliers de parties pour devenir performant. Les données sont la ressource. Le développement des capacités de récolte et de traitement des données alimente celui de l’intelligence artificielle. Enfin, le troisième paramètre est lié au développement vertigineux des algorithmes. [1]

II. Intelligence artificielle : à quoi s’attendre ?

Dans cette partie, nous esquisserons une étude d’impact prospective de l’intelligence artificielle dans cinq domaines clefs : l’emploi, la transition écologique, la santé, la défense et l’agriculture. L’étude rapide de ces champs d’application doit permettre de prendre la mesure des changements que l’IA pourrait engendrer en mettant en avant les défis, les risques et les opportunités qui pourraient rythmer les années à venir.

1. L’impact de l’IA dans le domaine de l’emploi et du travail

  • Études d’impact sur les métiers et l’organisation du travail La triade « intelligence artificielle, automatisation et robotisation » risque d’impacter de manière profonde l’organisation du marché de l’emploi et l’organisation du travail, le volume d’emploi, l’évolution des métiers et des compétences. Quelles formations pour faire face à cet avenir ? Quels changements structurels sur le marché du travail ? Et quelles opportunités pour l’avenir de l’emploi avec l’intelligence artificielle ?

Quelles sont les catégories d’emplois visées par cette transformation ? La résolution relative aux règles de droit civil sur la robotique adoptée le 16 février 2017 par le Parlement européen souligne que « les emplois moins qualifiés dans les secteurs à forte intensité de main-d’œuvre risquent d’être plus vulnérables à l’automatisation ». L’automatisation d’une tâche nécessite qu’elle réponde à 4 critères (COE, 2017) : (1) absence de flexibilité (production horaire, répétition continue), (2) absence de capacité d’adaptation (pas d’imprévu à gérer dans son déroulement, succession de tâches prévisibles), (3) absence de capacité à résoudre des problèmes (nécessité de l’intervention d’un tiers pour solutionner un problème), (4) l’absence d’interactions sociales.

D’autres études estiment que les emplois intermédiaires et faiblement qualifiés sont menacés au même titre que des emplois d’expertise comme les médecins ou les avocats. Les algorithmes pouvant – par l’analyse de base de données et recoupement d’informations- élaborer des prévisions de diagnostics ou de jugements de plus en plus fiables (Roland Berger, 2014).

Quant à l’impact sur le volume d’emploi, l’étude de Frey et Osborne affirme que 47% des emplois aux USA seraient menacés d’automatisation à échéance de 20 ans tandis que le cabinet de conseil français Roland Berger parle de 42% des emplois français (Roland Berger, 2014). Avec une approche qualitative et sectorielle, l’étude du Conseil d’Orientation pour l’Emploi français (COE, 2017) nuance toutefois les chiffres : seuls 10% des emplois deviendraient obsolètes, mais la moitié des emplois existants subiraient une automatisation à plus de 50%, nécessitant ainsi une évolution significative de leurs contenus.

Au-delà du volume d’emplois, c’est sur les compétences que l’impact de l’IA risque d’être le plus massif. Quelles compétences faudra-t-il développer pour permettre aux travailleurs de trouver une place dans ce futur univers technologique ? Une piste de réponse donnée par le COE serait de s’axer sur le développement de compétences qui ne semblent pas automatisables de manière à travailler la complémentarité entre l’humain et la machine.

Le développement des capacités cognitives transversales (compréhension du langage et des nombres, capacité de résolution de problèmes), des capacités créatives, des compétences sociales et situationnelles (travail en équipe,), capacités de précision relative à la perception à la manipulation (dextérité manuelle par exemple) seraient ainsi l’avenir d’une telle complémentarité.

Toutefois, des questions politiques et éthiques demeurent quant aux contours et au sens de cette complémentarité entre le travail humain et le travail des machines. L’obéissance aux ordres d’une machine, la perte de contrôle des processus, la délégation des décisions à la machine représentent des problématiques porteuses de conséquences importantes sur la place du travailleur et le sens de son travail. La question de la gouvernance et de la démocratie sociale est d’autant plus importante dans un contexte d’automatisation.

Un marché du travail polarisé et relocalisé ? Un autre aspect de cette évolution des environnements technologiques serait de continuer à favoriser l’emploi qualifié et très qualifié. La complexification des métiers existants et la création de nouveaux métiers dans le domaine du numérique porte en elle le risque d’une polarisation du marché du travail vers l’emploi qualifié. Concomitante à cela, une explosion des inégalités pourrait survenir, où les moins formés se verraient exclus du marché du travail et/ou sans moyens pour s’y adapter (Villani, 2018).

Ajoutons à cela que si le développement technologique a jusqu’à maintenant favorisé une délocalisation des emplois industriels routiniers et de services (en abaissant les couts liés à la distance géographique), l’automatisation pourrait représenter une opportunité économique attractive de relocalisation des activités de production. À l’échelle globale, ce processus de relocalisation pourrait avoir de profondes conséquences sociopolitiques. Dans un monde d’interdépendances, l’externalisation de notre production a eu de profondes conséquences sur la structure économique d’autres pays, les faisant s’adapter de gré ou de force et rendant certains vulnérables face aux fluctuations des marchés internationaux.

Avec quel système de protection sociale ? Enfin la question du financement de notre système de protection sociale se pose dans un monde ou robots, automatisation ou agents autonomes remplaceraient une part des êtres humains contribuant actuellement à la solidarité nationale. Une taxe sur ces différents éléments pourrait être une piste de solution afin de préserver un financement adéquat de la sécurité sociale (OPECST, 2017).

Plus largement, le phénomène d’automatisation porté notamment par le développement de l’intelligence artificielle peut être un vecteur de refonte de notre modèle social. De manière positive, l’IA permet d’envisager plus clairement toutes les formes de distanciation avec le travail contraint. Autrement dit, cette évolution technique renforce les propositions d’innovations sociales, telles que le développement d’un revenu de base ou la réduction du temps de travail. Ces propositions ont en commun de s’appuyer sur la perspective de l’automatisation de l’emploi pour permettre au travailleur de se libérer des tâches ingrates et d’augmenter l’étendue de sa « sphère autonome », non productive, la part de « temps à soi ». Une étudiante, un père au foyer et un infirmier fournissent tous trois un travail important, pourtant seul le dernier perçoit un salaire et est vu comme contribuant économiquement à notre société. En prenant un peu de hauteur sur l’enjeu que représente le monde du travail de demain, l’intelligence artificielle ne pourrait-elle pas représenter l’opportunité de passer outre le modèle du salariat et de l’exploitation ? De passer d’un travail aliéné à un travail libre dans une société capable de produire le nécessaire à la survie de chacun ?

2. L’impact environnemental de l’intelligence artificielle

L’impact environnemental de l’IA doit-il être analysé sous l’angle de la menace ou de l’opportunité ? Le développement numérique et celui de l’IA en particulier demandent une quantité massive d’énergie et des métaux rares en quantité et dont l’extraction représente une source de pollution et d’exploitation importante. Dans le même temps, de nombreuses études défendent l’idée que le développement technologique permettrait une efficience énergétique renforcée et la possibilité d’utiliser toujours moins de matière dans les processus de production.

  • Réalité écologique de la révolution industrielle numérique Un lourd bilan énergétique

Afin de permettre une évaluation plus précise des réalités écologiques derrière le numérique, une série de chiffres peut nous permettre d’y voir plus clair. Tout d’abord, la consommation énergétique liée au numérique. Elle augmente actuellement de 8,5 % par ans et pourrait avoisiner entre 20 et 50 % de la consommation électrique mondiale d’ici 2030 (+2%/an) (Villani, 2018).

Les nécessités de calculs allant croissant, nos capacités de production en énergie pourraient bien à terme n’être plus suffisantes pour y répondre. Les émissions de gaz à effet de serre qui en découlent correspondaient en 2015 à 2,5% du total mondial et sont amenées à doubler d’ici 2020.

À côté de cela, imaginer améliorer l’efficience énergétique est raisonnable, mais il faut tenir compte de « l’effet rebond » : un paradoxe qui montre que le gain énergétique lié à de nouvelles technologies peut au final augmenter la consommation totale d’énergie, comme l’a fait en son temps la machine à vapeur. Une adaptation du comportement de la société dans ses habitudes de consommation qui vient finalement annuler ce gain énergétique (Schneider, 2003). Ajoutons à cela, le remplacement fréquent d’équipements encore utilisables pour adopter les dernières technologies, il a une empreinte considérable.

Les terres rares : une ressource finie

Ensuite, pour la production des outils numériques (notamment le stockage de données), de nombreux métaux rares sont utilisés. En quoi cela représente-t-il un problème ? D’une part, l’extraction de ces métaux tout comme leur faible potentiel de recyclage sont la cause d’une pollution importante des sols. D’autre part, leurs réserves sont limitées et l’énergie nécessaire à leur extraction dans des gisements de moins en moins concentrés va croissant. « Le digital nécessite l’exploitation de quantités considérables de métaux : chaque année, l’industrie de l’électronique consomme 320 tonnes d’or et 7.500 tonnes d’argent, accapare 22 % de la consommation mondiale de mercure (soit 514 tonnes) et jusqu’à 2,5 % de la consommation de plomb. La fabrication des seuls ordinateurs et téléphones portables engloutit 19 % de la production globale de métaux rares tels que le palladium et 23 % de cobalt. » (Pitron, p.66) Or, «  au rythme actuel de production, les réserves rentables d’une quinzaine de métaux de base et de métaux rares [seront épuisées en moins de cinquante ans ; pour cinq métaux supplémentaires (y compris le fer, pourtant très abondant), ce sera avant la fin de ce siècle. » (p.216)
Ces métaux restent nécessaires pour le développement des capacités de calcul de l’IA, notamment dans la fabrication des Graphic Processing Units (GPU) qui pratiquent la coopération simultanée entre plusieurs processeurs, ce qui ouvre le champ des possibles en calculs mais encore une fois, l’envers du décor n’est que peu connu : « la seule fabrication d’une puce de deux grammes implique le rejet de deux kilogrammes de matériaux environ, soit un ratio de 1 à 1.000 entre la matière produite et les rejets générés. » (p.66) La rareté des matériaux amène à creuser toujours plus loin. Mais avec des réserves limitées, nous ne tiendrons pas plus de quelques dizaines d’années. Sachant que ces métaux sont également utilisés dans l’élaboration des technologies des énergies vertes (panneaux solaires, …) ; Pitron dit encore : «  soutenir le changement de notre modèle énergétique exige déjà un doublement de la production de métaux rares tous les quinze ans environ, et nécessitera au cours des trente prochaines années d’extraire davantage de minerais que ce que l’humanité a prélevé depuis 70.000 ans. » (Pitron, p.25).

Sans un changement de paradigme, le développement numérique risque de se heurter aux murs des ressources naturelles.

  • Quelles opportunités de l’IA pour la transition énergétique ? D’un autre côté, les opportunités dont est porteuse l’intelligence artificielle pour contribuer à la transition écologique peuvent être énoncées.

Au service de l’environnement ?

En effet, l’IA offre d’une part une possibilité inédite de compréhension des dynamiques et évolutions des écosystèmes, comme le laisse présager le projet Tara Oceans qui se veut modéliser le biome planétaire à partir d’une collecte et d’un traitement massif de données climatiques, physicochimiques, biologiques, etc. La préservation de l’environnement et de la biodiversité peut également bénéficier de l’action de machines intelligentes de multiples manières (robots chassant des espèces invasives, etc.). D’autre part, elle peut contribuer à optimiser la gestion de ressources planétaire, diminuant ainsi les d’externalités négatives à l’œuvre actuellement (Villani, 2018).

Une IA moins polluante et moins énergivore ?

À côté de cela, certains progrès technologiques peuvent contribuer à réduire l’impact écologique de l’IA.

Le stockage de données est énergivore et consommateur de métaux rares pourrait à l’avenir être effectué sur de l’ADN synthétique. Celui-ci aurait un effet bénéfique tant sur les capacités de stockage que sur le matériau utilisé (et son impact en émission de GAES), prenant ses distances avec le modèle de stockage sur puce et des grands datacenters. Avant d’arriver à un tel changement, d’autres dynamiques comme l’optimisation énergétique des datacenters et le recyclage de la chaleur produite pourraient déjà être un pas dans la direction souhaitée. À titre d’exemple, « le datacenter de la banque de Natixis à Marne La Valée alimente en eau à 55 °C le réseau de chauffage urbain d’une zone en cours d’urbanisation et le centre nautique intercommunal du Val d’Europe » (Villani, 2018, p129), et certains mécanismes développés actuellement permettent de récupérer près de 60% de la chaleur dégagée par les serveurs.

  • Nécessité d’un changement de paradigme Face au changement climatique qui s’illustre dans la fonte des glaces, la disparition des espèces, les dégradations des écosystèmes et bien d’autres encore, de plus en plus de voix s’élèvent pour mettre à l’avant-plan la nécessité d’une transition écologique. Causés en grande partie par l’homme, ces dégâts découlent de notre modèle de développement, de l’absence de prise en compte de ses conséquences environnementales ; du productivisme et consumérisme qui lui sont inhérents. Si certains, comme nous l’avons évoqué, sont enclins à penser une transition écologique mise en œuvre grâce aux nouvelles technologies ; d’autres nous mettent en garde contre une telle vision.

La première option revient en effet à considérer qu’une technologie toujours plus efficiente et novatrice permettra à l’humain de vivre plus confortablement et de consommer autant, voir plus qu’aujourd’hui ; sans pour autant devoir changer notre modèle de développement. Jeremy Rifkin à titre d’exemple postule que la dématérialisation et la décentralisation rendues possibles par la technologie mèneront à une réduction drastique (voir totale) des frais de stockage, de distribution et de production dans un système ou les consommateurs deviendront des « producteurs contributifs » dans un système de collaboratifs. « Des milliards de capteurs disposés sur les ressources naturelles, les chaînes de production, implantée dans les maisons, les bureaux et même les êtres humains, alimenteront en Big Data un réseau mondial intégré, sorte de système nerveux planétaire. » (Rifkin, 2014, p433) Tout cela permettant d’avancer vers un monde plus vert.

La seconde option, bien au contraire, montre d’un doigt réprobateur cette idée confortable qualifiée de « technobéate » qui ne tient pas compte des limites matérielles et énergétiques de notre planète. Avant de penser un tel changement, il faut d’abord penser à « comment » diminuer nos besoins énergétiques, comment sortir d’un idéal de croissance continue ? Et comment penser ces questions dans un contexte inégalitaire à l’échelle mondiale ? Pitron le soulignera dans son étude : « la transition énergétique et numérique est une transition pour les classes les plus aisées : elle dépollue les centres-villes, plus huppés, pour mieux lester de ses impacts réels les zones plus miséreuses et éloignées des regards ». (Pitron, 2018, p.81) Au niveau mondial, « dissimuler en Chine l’origine douteuse des métaux a permis de décerner aux technologies vertes et numériques un certificat de bonne réputation. C’est certainement la plus fantastique opération de greenwashing de l’Histoire. » (Pitron, 2018, p.103)

Bien loin d’être écologiquement négligeable, l’impact de la dématérialisation et des nouvelles technologies nous montre qu’elles ne peuvent à elles seules représenter une solution pour la transition écologique et sociale. Trop souvent ignorée, cette réalité reflète pourtant l’urgence d’un changement de modèle radical à l’échelle mondiale.

3. L’impact de l’IA dans le domaine de la santé

Tant au niveau de la médecine que des politiques de santé publique, l’intelligence artificielle est porteuse d’opportunités et de risques. Tout d’abord, la capacité d’apprentissage, de compilation et de recoupement de données des algorithmes pourrait permettre d’améliorer la qualité des soins et de diminuer leurs coûts. Comment ? Au travers (1) d’une contribution à l’établissement de diagnostics et (2) du déploiement de stratégies thérapeutiques prenant en compte le profil du patient, son environnement, son mode de vie de manière « sur-mesure ».

  • Des patients suivis en temps réel Le développement de l’intelligence artificielle permet un suivi en temps réel de l’état de santé des individus grâce à sa participation active. Celle-ci se réalise par le biais d’objets de « quantified self » et d’applications santé sur smartphone gérées par le patient, de compilation d’indicateurs liés à l’environnement (pollution, stress sonore,…). Ces données agrégées permettraient dès lors l’établissement d’un profil précis du patient et avec lui de probabilités de développement ou d’évolution de pathologies. Celui permettrait également une prise en charge individualisée et ainsi une gestion plus efficace du système de santé (Villani, 2018).
  • Des IA pour remplacer nos médecins ? De par la quantité de données qu’elle peut traiter et à sa vitesse, l’IA peut prendre en charge de nombreuses opérations plus efficacement que ce dont nos médecins sont capables. Quelle sera la place de l’IA et du professionnel de la santé dans le futur ?

Performante dans la détection de symptômes, l’établissement des diagnostics et l’élaboration des stratégies de traitement (notamment grâce au suivi en temps de réel), l’IA est amenée à devenir un soutien à la prise de décision médicale. Sa capacité d’intégrer les nouvelles connaissances médicales produites au fil du temps en fait une experte pouvant pallier à l’impossibilité pour le médecin de continuellement intégrer les nouvelles avancées de la science. Tout cela, en contribuant à la traçabilité des décisions aux différentes étapes de diagnostic et de traitement, grâce à son suivi continu.

Les analyses pharmacologiques gagneront d’une détection plus rapide des effets secondaires de nouveaux médicaments. La chirurgie sera plus performante grâce à l’assistanat de robots-chirurgiens. Certaines professions médicales se verront bouleversées par le développement de l’intelligence. Le domaine de l’imagerie médicale (radiologie, dermatologie, …) pourrait à titre d’exemple souffrir d’une forte automatisation : la précision des capteurs analyse des signaux visuels parfois imperceptibles pour l’œil humain. Les compétences humaines et relationnelles du médecin (conseils, empathie, écoute, confiance, connaissance du patient,…) seront d’autant plus importantes pour complémenter l’IA (Villani, 2018).

Enfin dans le domaine de la recherche, l’IA est un atout clef pouvant recouper rapidement littérature scientifique, résultats de recherches, comptes rendus cliniques, données génétiques des patients ; permettant ainsi à la science d’avancer plus efficacement.

  • Innovations pour changer des vies En matière de handicap, l’IA ouvre la possibilité d’un changement de vie pour nombre de personnes.

Des prothèses capables d’interpréter des signaux envoyés par les muscles résiduels de l’utilisateur pourraient venir remplacer des membres amputés ; des logiciels descriptifs pourraient faciliter la vie des personnes mal voyantes en leur décrivant le contenu des images qu’ils captent ; des exosquelettes robotisés pourront rendre un peu d’autonomie aux personnes souffrant de paralysie, etc. Sur le papier, les possibilités sont innombrables. À l’heure actuelle, des start-up commencent à développer ce type de « produits ». À titre d’exemple, une prothèse de main développée par BrainRobotics, une entreprise américaine repère les caractéristiques des signaux musculaires dans le bras du patient et les transmets à travers un algorithme de classification qui va produire les différents types de gestes et leur intensité (poing fermé, index levé, etc.) (OPECST, 2017).

  • Des politiques publiques ciblées et adaptées Plus globalement, bien qu’il présente un énorme défi en termes de protection de la vie privée, le déploiement de l’intelligence artificielle peut permettre de mettre en place des politiques publiques de prévention sanitaire prédictive mieux ciblées et adaptées, d’anticiper la demande de soin, de construire des outils de pilotage plus efficients, de gérer mieux des situations d’urgence ou des épidémies (Villani, 2018).

4. Défense et sécurité

L’intelligence artificielle est amenée à contribuer à l’innovation dans les opérations militaires, dans la sécurité intérieure et la cyberdéfense. Les robots remplaceront-ils nos soldats pour donner une réalité au mythe de la guerre « zéro mort » ? Ou, à l’inverse, le développement des robots-tueurs va-t-il élargir l’échelle de destruction dont les êtres humains sont capables ? Les robots tueurs les plus redoutables ne seront-ils pas finalement des virus ultra-sophistiqués, agiles et apprenant, capable de faire défaillir les grandes infrastructures des États ? Comment « encadrer » le déplacement des hostilités – et des règles censées les régir – vers des terrains de guerres virtuels ?

Protection sur le champ de bataille et combats plus performants

Sur le terrain, l’intelligence artificielle contribuera à la mise en place d’un combat collaboratif en connectant unités et moyens sur le champ de bataille, à rendre plus performants et plus conséquents les systèmes de combat (logistique et maintenance), à entrainer des troupes au travers de simulations opérationnelles. Exposées à de nombreuses violences, les troupes encourent d’importants risques qui pourraient être limités par le biais de l’intelligence artificielle. Face à la violence psychologique (liés à l’analyse de contenus dont les images peuvent être porteuses de traumas) et physique (missions de reconnaissance, de cartographie en zone ennemie, de déminage), l’IA (et les robots) peut en effet se substituer aux soldats pour effectuer ces tâches, les protégeant partiellement de la menace (Villani, 2018).

Les Systèmes d’armes Léthales Autonomes (SALA) : une révolution dangereuse ?

Le développement de l’IA dans le secteur de la défense n’est pas sans susciter des craintes. L’une des plus importantes se nomme le SALA ou Système d’Arme Létale Autonome. Défini par le Rapporteur spécial à l’ONU Heyns comme « des systèmes d’armes robotiques qui, une fois activés, peuvent sélectionner et attaquer des cibles sans intervention complémentaire d’un opérateur humain. L’élément à retenir est que le robot choisit de façon autonome de viser telle cible et d’utiliser la force meurtrière » (Heyns, 2013)

Pour bien comprendre cette réalité, il faut souligner l’existence d’une échelle d’autonomie dans les différentes technologies utilisées. Certaines n’ont qu’une autonomie partielle, nécessitant l’intervention humaine. Il s’agit des drones de combats, des systèmes pilotés à distance, des systèmes de défense antimissile, des torpilles, … Face à cela, d’autres bénéficieraient d’une autonomie totale, les SALA. Si le SALA fait autant débat et soulève des craintes, c’est notamment parce qu’il enlèverait à l’homme l’usage exclusif de la force létale. Plutôt qu’une IA aidant à la décision et à l’exécution, c’est une IA prenant les décisions sans l’homme qui verrait le jour sur le champ de bataille (Villani, 2018).

Soumis au droit international humanitaire et au droit des conflits armés, la capacité de jugement de ces systèmes pose toutefois question : sur le terrain, « la perception de la cible entraînera une prise de décision quasi immédiate faisant suite à l’identification de la règle d’engagement pertinente » (Ancelin, 2016). Mais sur les champs de bataille, des décisions complexes doivent être prises : estimer la proportionnalité d’une attaque, différencier un intrus soldat d’un civil, … Et les règles du droit international humanitaire n’ont pas été conçues pour être insérées dans un algorithme, elles demandent interprétation en contexte. Ainsi, sans cette capacité de jugement humaine, le SALA n’est nullement plus fiable et peut commettre bien des dégâts.

D’autre part, le déclenchement de guerres se trouverait facilité si les troupes étaient remplacées par des robots. L’argument d’une guerre « zéro mort » parmi les soldats justifiant plus facilement des interventions armées auprès de l’opinion publique ; ce sont les populations civiles qui risquent bien d’être les premières victimes de cette multiplication des conflits. Pourtant, c’est aujourd’hui une course à l’armement robotisé qui se joue sur la scène géopolitique mondiale … (Amnesty, 2017)

Une autre crainte importante liée à ces SALA est leur arrivée sur le marché noir. Leur confection ne nécessitant pas de matériel de base difficile à obtenir, les composantes pourraient être transformées en armes par des individus compétents dans le domaine de l’IA pour perpétrer des atrocités.

L’enjeu de la cybersécurité – données – sécurité ou sécuritaire ?

Dans un monde interconnecté où nombre d’enjeux essentiels dépendent de données ou du bon fonctionnement de dispositifs dématérialisés, le risque est grand face à une attaque virtuelle.

La cyberdéfense et la cybersécurité offrent des perspectives de détecter, parer et riposter à des attaques toujours plus complexes et difficiles à identifier pour des analystes humains. Pour cela, les données dont disposent les ministères publics (imageries satellites, vidéos, signaux électromagnétiques, systèmes de combat, renseignement, cybersécurité, robotique, données de maintenance…) représentent un moyen d’alimenter algorithmes et IA dans ces domaines (Villani, 2018). Mais le revers de la médaille peut être grand. En effet, un accroissement de ces capacités rend plus important encore le risque de surveillance de masse et de limitation des libertés publiques, déjà bien présent dans un contexte sécuritaire.

5. Agriculture

  • Une IA pour relier l’ensemble de la chaîne de valeur ? Nourrir l’humanité, préserver l’environnement, garantir une alimentation saine, abordable et durable. Autant de défis qui touchent directement à l’agriculture et à ses futures évolutions. Le secteur, fortement automatisé depuis la PAC et l’intensification des échanges internationaux peut encore connaître de nombreuses évolutions.

Optimiser la production agricole

En termes d’impact de l’intelligence artificielle, le rapport Villani souligne l’amélioration du bilan énergétique et la diminution d’utilisation des intrants chimiques qu’elle peut permettre « via un meilleur suivi des rendements, des troupeaux, une amélioration de l’épidémie-surveillance, à partir des données des plants, des machines agricoles, des parcelles, de la météo, de l’agriculteur, … ». Il s’agit d’optimiser la production agricole grâce aux nouveaux outils technologiques.

En intégrant la totalité de la chaîne de valeur (production, transformation, distribution) , l’utilisation des données de l’ensemble des filières pourrait contribuer à améliorer le quotidien des producteurs et consommateur en rééquilibrant prix de productions et prix de vente, en permettant une certification et une traçabilité accrue des produits (Villani, 2018).

Contrecarrer les grands équipementiers ou sauver les petits agriculteurs ?

La nécessité, comme dans les autres domaines tourne autour de la collecte de données. Le développement de capteurs autonomes à l’échelle européenne pouvant permettre de contrecarrer le monopole que sont en train de se construire les grands équipementiers et de définir nos propres standards. C’est ainsi une agriculture connectée qui pourrait voir le jour, impliquant l’ensemble des exploitants dans le processus de collecte et faisant appel à de nouvelles technologies (Villani, 2018). Cependant dans ce scénario, les compétences et investissements techniques à acquérir posent la question de la survie des petits agriculteurs que ce soit en Europe ou dans d’autres régions du globe. Cette technologie n’est-elle pas un facteur supplémentaire creusant les inégalités et aggravant la précarité de nombreux exploitants ? Une question qui ne peut être éludée sous couvert d’une volonté d’optimisation de la chaîne de valeur.

Bibliographie

Julien Ancelin, Les Systèmes D’armes Létaux Autonomes (Sala) : Enjeux Juridiques De L’émergence D’un Moyen De Combat Déshumanisé – Droit International Humanitaire Et Droit Du Désarmement ; 2016 Octobre, Revue Du Centre De Recherches Et D’études Sur Les Droits Fondamentaux.

Https ://Www.Amnesty.Fr/Controle-Des-Armes/Actualites/Robots-Tueurs—Play-It-Now

Villani Cédric, Donner Un Sens À L’intelligence artificielle, Rapport Parlementaire 2018.

Pitron Guillaume, La Guerre Des Métaux Rares. La Face Caché De La Transition Énergétique Et Numérique, Les Liens Qui Libèrent, 2018

Rifkin Jeremy, La Nouvelle Société Du Coût Marginal Zéro, Les Liens Qui Libèrent, Paris, 2014

C. Frey And M. Osborne, Future Of Employment, 2013, Oxford.

Roland Berger Strategy Consultants, Les Classes Moyennes Face À La Transformation Digitale – Comment Anticiper ? Comment Accompagner ?, Octobre 2014.

Conseil D’orientation Pour L’emploi, Automatisation, Numérisation Et Emploi, Septembre 2017

Rapport Au Nom De L’office Parlementaire D’évaluation Des Choix Scientifiques Et Technologiques Pour Une Intelligence artificielle Maîtrisée, Utile Et Démystifiée Par M. Claude De Ganay, Député, Et Mme Dominique Gillot, Sénatrice, 15 Mars 2017

[1Kelly, K., 2017. The inevitable : understanding the 12 technological forces that will shape our future. Penguin.

Share This