Pas un jour ne passe sans qu’une pluie d’articles ne paraissent sur l’intelligence artificielle (IA). Les termes grandiloquents abondent pour qualifier ce tournant majeur de l’histoire du numérique. Cependant, cette transformation pilotée par les géants du web peut sembler complexe et hors de portée des citoyen·ne·s alors même qu’elle pourrait bouleverser chaque aspect de nos vies. Avec 20 citoyen·ne·s, lors de l’Université collaborative d’Etopia, nous avons pris le temps, durant 3 journées, de découvrir, d’analyser et de discuter de l’intelligence artificielle, ou plutôt des intelligences artificielles. Mieux cerner le sujet, se l’approprier en tant que citoyen·ne et émettre des recommandations pour que les IA soient au service du bien commun, tels ont été les objectifs de ce processus citoyen participatif.

Cette analyse est issue des interventions d’expert·e·s et des échanges entre les citoyen·ne·s ayant participé aux 3 journées de l’Université collaborative. Elle est le fruit d’ajustements entre des personnes aux avis divers.

Aux origines de l’IA1

L’intelligence artificielle n’est pas un terme récent. Il faut remonter aux années cinquante, lors d’un colloque organisé au collège de Dartmouth par John Mc Carthy. Ce pionnier de l’IA souhaite ouvrir un nouveau champ de recherches qui se distingue de la cybernétique2 dont le développement est mené à la même époque par le mathématicien Norbert Wiener. Dans un contexte de guerre froide, la création de l’IA est à mettre en lien avec certains buts militaires.Les États-Unis investissent en effet massivement dans les nouvelles technologies, notamment au travers de la Defense Advanced Research Project Agency (DARPA). Dans les années 60, la DARPA finance près de 70% de toute la recherche informatique américaine, et est au cœur du développement de la première vague de technologies d’IA. Pratiquement dès ses origines, l’IA est donc perçue comme un actif technologique stratégique au service de la suprématie de la défense américaine. Cette vision aura un impact déterminant sur les développements futurs des logiciels IA, et encore aujourd’hui la technologie n’a rien perdu de sa dimension géopolitique.

Dès le départ se pose la question de ce qu’est l’intelligence. Deux écoles se distinguent. Pour Mc Carthy, l’intelligence est la capacité à résoudre des problèmes. L’humain est perçu comme un processeur d’informations élaborées semblable à la machine. Dans ce cadre, l’IA sert à se représenter le monde d’une certaine manière et à trouver des solutions. Deux grandes approches découlent de cette vision. Tout d’abord, l’approche symbolique selon laquelle l’intelligence est la manipulation d’abstractions complexes, de symboles. L’IA doit alors chercher à comprendre « comme un humain ». Les échecs successifs de l’approche symbolique et l’augmentation régulière de la puissance de calcul laissent peu à peu la place à l’approche connexionniste, largement dominante aujourd’hui. Selon le connexionisme, les phénomènes mentaux sont le produit d’interactions entre réseaux connectés d’unités, et des réseaux de neurones artificiels peuvent reproduire des comportements intelligents.

Selon ces deux grands paradigmes, l’intelligence est réduite à un système de traitement de l’information. Le monde réel est vu comme entièrement formalisable, c’est-à-dire réductible à une forme logique. L’IA, dans cette perspective, consiste à fabriquer une machine de traitement de l’information assez efficace pour imiter voire dépasser la capacité humaine à résoudre des problèmes.

Le chercheur en IA Joseph Weizenbaum va s’opposer à cette vision réductrice de l’intelligence, et ainsi devenir l’un des premiers experts de l’industrie à remettre en question les promesses de l’IA. Il est notamment l’inventeur du premier chatbot3 (Eliza) à la fin des années 60. Selon lui, les IA ne peuvent être intelligentes au sens où le sont les humains. L’intelligence ne se résume pas à un ensemble de processus logiques. Un comportement intelligent est lié à un vécu, un contexte. Notre compréhension du monde est fondée sur l’expérience sensorielle que l’on en a. Il faut comprendre l’utilité mais aussi les limites intrinsèques des logiciels d’IA et circonscrire leur champ d’application.

Qu’est-ce que l’IA ?

L’intelligence artificielle est un mot-valise qui désigne un ensemble de techniques algorithmiques en vue d’atteindre un objectif, et s’apparente à un outil statistique élaboré. Elle regroupe une diversité d’applications différentes. Il est donc plus correct de parler des intelligences artificielles plutôt que de l’intelligence artificielle. La dernière innovation « grand public » en IA concerne les large langage models (LLM), dont ChatGPT fait partie. Le « machine learning » est une branche de l’IA qui part de données brutes (souvent en très grand nombre) pour trouver des « patterns » ou régularités avec un minimum d’intervention humaine. Il ne s’agit plus de donner un code précis à la machine qu’elle va exécuter mais d’entraîner la machine à prendre des décisions sur base d’un très grand nombre de données. Une sous-branche du machine learning est le generative machine learning.Celle-ci fonctionne en utilisant des algorithmes qui vont produire de nouvelles données, des images ou des textes (comme ChatGPT) sur base d’une grande quantité de données préexistantes. Ce sont des outils statistiques qui n’ont ni conscience, ni compréhension. Leur production de contenu est affinée pour nous paraître plausible.

Différents éléments sont nécessaires pour composer la recette de l’IA :

1) Des données : Sans données, pas d’intelligence artificielle ! La numérisation croissante offre des quantités de données massives. La provenance des données n’apparaît pas dans les IA génératives. Elles utilisent des données sans forcément en avoir le droit. Elles sont également susceptibles d’utiliser de fausses données qui circulent sur le net.

2) Des ressources naturelles : loin d’être immatériel, le numérique, dont l’IA, consomme une quantité importante de ressources. Les data centers, câbles sous-marins, antennes relais, etc. se composent de nombreux matériaux dont une quantité croissante de métaux. Un élément clé de l’IA sont les puces électroniques ou semi-conducteurs. Capables de traiter une immense quantité de données, elles ont permis l’émergence des IA modernes. Leur processus de production est extrêmement complexe et nécessite de grandes quantités d’eau douce. « 100 % de la capacité mondiale de production des semi-conducteurs les plus avancés est actuellement située à Taïwan (92%) et en Corée du Sud (8%)4 ».

3) De l’énergie : Il est très complexe de calculer avec précision la consommation énergétique des intelligences artificielles. Néanmoins, la procédure d’entraînement de logiciels de machine learning consomme une quantité d’énergie substantielle. A titre d’exemple, entraîner un seul LLM (large language model) en 2019 générait plus de 284T de CO2, soit à peu près la consommation d’un vol transatlantique5. Et ce chiffre n’est pas près de baisser : en IA, les méthodes les plus énergivores sont les plus efficaces. Ainsi, OpenAI, la maison-mère de ChatGPT, a elle-même estimé que la puissance de calcul nécessaire pour faire tourner un modèle IA double tous les 3, 4 mois. Dans le même temps, aucune information précise ne peut être donnée sur la consommation énergétique de logiciels comme ChatGPT, qui est passée sous silence. « L’électricité consommée par les centres de données numériques dans le monde devrait doubler d’ici à 2026, principalement en raison de l’essor de l’IA et des cryptomonnaies, selon un rapport publié par l’Agence Internationale de l’Énergie en janvier 2024. Ce besoin pourrait passer de 460 TWh en 2022, soit 2 % de la demande mondiale (dont 25 % pour les cryptomonnaies), à 1 050 TWh, soit un bond équivalent à la consommation d’un pays supplémentaire, de l’ordre de celle de l’Allemagne » peut-on lire dans un article du Monde6.

4) Des travailleurs et travailleuses précaires : Les logiciels d’IA ont besoin d’être entraînés pour gagner en performance. Ce travail est bien souvent réalisé par des millions de travailleurs et travailleuses de l’ombre appelé·e·s aussi travailleurs et travailleuses du clic7. Ces personnes exécutent à répétition des micro-tâches pour caractériser les données ou évaluer les réponses du logiciel. Ils et elles sont bien souvent situé·e·s dans des pays du Sud où les droits sociaux sont faibles.

5) Du capital : l’IA est dominée par les Big Tech, les grandes firmes capitalistes de la Silicon Valley. Elles ont l’avantage de posséder une immense quantité de données. Elles disposent également de la puissance de calcul et d’énormes data centers. Elles sont bien souvent soutenues financièrement par les États qui voient dans la maîtrise de l’IA un avantage géostratégique8. Enjeu de pouvoir, l’IA cristallise les rivalités entre États, Chine et États-Unis en tête. La souveraineté des données des citoyen·ne·s est un autre sujet de préoccupation dans le cadre de partenariats commerciaux entre nos États et des grandes sociétés du numérique, comme dans le cas des projets de smart city9 par exemple.

Les grands enjeux de l’IA

Au-delà de la frénésie médiatique et des déclarations prophétiques de ses leaders, l’IA soulève de nombreux enjeux.

Surveillance de masse

L’IA pourrait renforcer les technologies de surveillance des populations et tendre vers la surveillance de masse. Les attentats de 2001 aux États-Unis ont déclenché l’expansion d’outils de surveillance à des fins sécuritaires. Intégrée à des caméras intelligentes, l’IA permet la reconnaissance faciale automatisée des individus dans l’espace public. L’IA remplace l’humain dans l’analyse des immenses quantités de données récoltées. Ainsi, même si l’IA Act10 interdit la reconnaissance biométrique11 et la notation sociale (en vigueur dans certains espaces en Chine), les États, équipés de systèmes de caméras sophistiquées, peuvent déployer la reconnaissance faciale dans divers contextes particuliers, comme la lutte contre le terrorisme, la recherche de suspects ayant commis des crimes ou encore les victimes d’enlèvement. Néanmoins, les ONG et défenseurs et défenseuses des droits humains restent inquiet·e·s de cette ouverture inédite à la reconnaissance faciale dans des lieux publics et de son usage potentiellement disproportionné.

Biais algorithmiques et propriété intellectuelle

La conception des logiciels d’intelligence artificielle est nécessairement située socialement. Le profil des concepteurs, souvent des ingénieurs hommes blancs, va nécessairement influencer les critères retenus pour l’entraînement des algorithmes. Tout comme les données analysées sur un échantillon déterminé révèlent aussi des tendances sociétales pouvant renforcer les stéréotypes de genre, de classe, de race, etc. Un exemple : lorsqu’un usager demande à Midjourney, logiciel producteur d’images, une image d’un homme mexicain, celui-ci porte un sombrero. Ou lorsque vous demandez la représentation de certains métiers, vous aurez de grandes chances de tomber sur une femme pour le métier de secrétaire et sur un homme dans des métiers plus manuels. De plus, les sociétés, comme Open AI, qui créent les algorithmes sont très opaques sur l’origine des données qu’elles utilisent. Impossible d’en identifier les sources, ce qui pose de gros problèmes sur le respect des droits d’auteur. La grève des scénaristes à Hollywood en 2023 en a été une vive manifestation. Craignant d’être dépossédés de leur métier et de leurs contenus par des logiciels d’IA créateurs de scénarios, les scénaristes du secteur ont fini par obtenir gain de cause après plusieurs mois de protestation.

Transformation des emplois

Beaucoup de prédictions concernent l’impact de l’IA sur le travail. La perspective du remplacement du travail humain refait de nouveau surface. 300 millions d’emplois seraient menacés par les IA génératives selon Goldman Sachs, un grand nombre de tâches répétitives pouvant être automatisées. Un but attrayant pour des entreprises en quête de productivité, souhaitant diminuer les coûts du travail humain. Mais les expérimentations concrètes s’avèrent moins sévères. Les pertes massives d’emploi annoncées par le géant de l’informatique IBM dans ses rangs seraient finalement moins importantes que prévues. Pas un remplacement massif12 donc mais une nouvelle complémentarité entre humain et machine où la machine peut faire gagner du temps sous contrôle humain se profilerait. Néanmoins, d’autres questions se posent dans des secteurs comme la médecine, la justice, la politique ou encore la défense autour du rôle d’aide à la décision que pourrait jouer l’IA. Sur base d’un large traitement de données de cas et situations passées, l’IA pourrait suggérer le jugement à rendre ou le traitement médical à administrer et faire gagner un temps précieux. L’enjeu est de maintenir la juste distance critique et l’exercice du jugement humain pour rendre la meilleure décision. Dans le domaine militaire, les technologies avancées (drones, robots, armes automatiques etc.) associées à l’IA modifient les pratiques. Ainsi Israël se sert d’une plateforme informatique dotée d’intelligence artificielle pour déterminer rapidement ses cibles et renforcer ses bombardements13 dans la bande de Gaza. Des questions éthiques sous-tendent cette expansion de l’IA dans le monde du travail qui poussent certains à dire que l’IA devrait être proscrite dans certains cas, comme la justice prédictive, tant les risques de stigmatisation sont importants.

IA et démocratie

L’IA ne se limite pas à Chat GPT et aux IA génératives qui font la une des médias depuis un an. Les réseaux sociaux, fondés sur des recommandations algorithmiques14, questionnent directement le fonctionnement démocratique15. Donnant une tribune à chacun, relais de fake news, les algorithmes des réseaux sociaux créent des bulles de vérité où les informations reçues correspondent et renforcent les opinions individuelles. D’autant plus que ces plateformes favorisent les idées simplistes et les slogans, caractéristiques des partis aux extrêmes16 qui investissent massivement dans ces réseaux. Hors jeu les débats d’idées, la diversité des points de vue et les dialogues constructifs. Les oppositions se renforcent et les invectives violentes d’individus (réels ou fictifs) cachés derrière leur écran se multiplient. Avec des effets bien réels comme le Brexit ou l’élection de Donald Trump en 2016, événements majeurs dans lesquels l’influence des réseaux sociaux a été prouvée, orchestrée par la société Cambridge Analytica17. Présumé coupable d’une fuite de données ayant permis d’inonder 87 millions de comptes d’utilisateurs de données ciblées, Facebook a accepté de payer 725 millions de dollars pour clore le dossier en décembre 2022. D’un autre côté, les réseaux sociaux ont pu faciliter des mobilisations citoyennes massives lors des Printemps arabes ou plus récemment du mouvement MeToo ou Black Live Matter. Quelle est et sera la place des algorithmes et de l’IA dans la gestion politique ? La recherche d’efficacité et de rationalisation de la gestion des affaires publiques qui, depuis plusieurs années, se digitalise à marche forcée, va-t-elle se poursuivre et s’étendre à l’IA ? Le risque de dérive technocratique est bien réel.

Comment mettre l’IA au service du bien commun?

Lors de l’Université collaborative, les participant·es ont pu passer en revue ces différents enjeux accompagné·e·s de plusieurs expert·e·s. Le travail collaboratif mené par les 20 citoyen·ne·s présent·e·s a permis de faire émerger des constats et de réfléchir aux finalités et garde-fous à imposer à l’IA tout comme à des recommandations adressées au monde politique.

Les finalités :

Lorsqu’un outil technologique est déployé à large échelle, un questionnement sur les finalités de cet outil devrait s’avérer incontournable, de préférence en amont de sa mise à disposition. Pourtant, aujourd’hui, la technologie confondue avec le progrès, semble s’imposer naturellement. Il est donc apparu nécessaire aux citoyen·ne·s de l’UC de prendre le temps de revenir sur ces finalités.

Selon elles et eux, l’IA doit servir à compléter les capacités humaines créatives, cognitives, la synthétisation des informations dans le respect des autres, humains et autres qu’humains, et des ressources environnementales tout en préservant le bien-être et la dignité. Elle doit viser l’épanouissement, la cohésion sociale, la prospérité, la préservation et la restauration de la nature et des écosystèmes, ainsi que renforcer la démocratie participative. Elle doit être au service de l’être humain et non l’inverse ; l’humain doit rester au centre. Dans ce sens, l’IA doit rester un outil maîtrisable. Elle doit renforcer l’autonomie de l’individu, préserver son libre-arbitre dans la prise de décision. L’IA doit diminuer la pénibilité au travail et faciliter un ensemble de choses pour les individus et la société, dont l’anticipation de problèmes futurs, en parallèle de l’analyse humaine.

Les garde-fous :

Pour que les intelligences artificielles puissent atteindre ces objectifs, un certain nombre de garde-fous doivent être dressés et respectés. Une régulation forte doit être mise en place, dans la ligne de l’IA Act, ouvrant les espaces de dialogue pour penser les enjeux cités plus haut et leurs évolutions. Un organisme institué de la société civile devrait être établi, une forme d’institution de la vigilance pour contrôler les développements de l’IA. Pour éviter les discriminations et le tout au numérique, les services au citoyen doivent maintenir la présence et le contact humains. Aussi, pour améliorer la compréhension des IA et pouvoir reprendre la main sur elles, il est indispensable de mettre en place une éducation au sens critique forte. Comme Luc de Brabandere l’explique, la pensée critique dans l’enseignement est « l’étage du dessus » qui vise à s’interroger sur le «pourquoi » (pourquoi on enseigne cela?). La pensée critique vise à « apprendre à accorder sa confiance avec discernement en se méfiant de quatre choses : d’où vient l’information ? Quelle est la solidité de l’argument ? Quel est le canal de distribution ? En me méfiant de moi-même (biais cognitifs) ».

Les critères :

Si nos sociétés souhaitent que les intelligences artificielles soient au service du bien commun, ces dernières doivent répondre à une série de critères définis. Il est important d’identifier les besoins individuels et collectifs auxquels les IA doivent répondre en vue de l’épanouissement des humains et autres qu’humains. Il faut veiller à ce que l’empreinte environnementale, le coût en énergie et en ressources des IA soit le plus bas possible. Le critère de transparence des informations semble aussi essentiel. D’où viennent-elles ? Quelles sont les sources ? Qui peut être tenu responsable des dérives ? Les IA doivent garantir la protection des données personnelles. La compréhension de ce que sont les IA et des principes de leur fonctionnement devraient être accessibles à tous et toutes, tout comme l’identification claire des contenus produits par les IA. La gouvernance de l’IA est aussi centrale et devrait être multipartite pour représenter les points de vue du plus grand nombre et éviter les biais discriminatoires des IA.  Enfin, les IA devraient être auditées pour garantir le respect des critères décrits.

Arrêtons-nous un instant. À ce stade, nous remarquons déjà les dissonances entre la trajectoire actuelle des IA et les orientations données par notre groupe citoyen. Conscients de ces écarts, il nous semble malgré tout essentiel de tenir ces débats et d’avancer des idées qui contrastent avec le prétendu déterminisme technologique actuel.

Vers des recommandations :

Au fil des discussions, trois groupes de travail thématiques ont émergé : le premier sur l’éducation et la démocratisation des IA, le second sur les inégalités sociales et internationales autour de l’IA et le dernier sur la régulation et le contrôle de l’IA.

Éducation :

L’arrivée de l’IA bouleverse les acteurs de l’école. Quelle peut être la place des IA ? Comment le professeur peut-il adopter cet outil ? Comment l’intégrer de la juste façon à l’enseignement ? L’IA pourrait-elle permettre un suivi personnalisé des élèves ? Toutes ces questions suscitent des réactions partagées entre enthousiasme et inquiétude.

En matière d’éducation, les recommandations des citoyen·ne·s de l’UC sont les suivantes :

* Explorer les opportunités que l’IA nous offre pour enrichir l’éducation et l’enseignement. Accentuer l’apprentissage des nouveaux outils et le développement de l’esprit critique ;

* Développer un chantier de vulgarisation et d’éducation populaire pour l’ensemble de la société (avec un accent sur certaines fonctions d’autorité/certains groupes, ayant un impact important sur la société : les leaders politiques, les enseignant·e·s, les journalistes, l’associatif/la société civile, les services publics, les jeunes) ;

* Former des panels d’experts indépendants et/ou des assemblées citoyennes évaluant les usages et impacts possibles afin d’éclairer les futures décisions politiques prises.

Inégalités sociales et Nord-Sud

Les politiques en matière d’intelligence artificielle doivent garder à l’esprit que la machine est au service de l’humain et pas l’inverse.

* Les modèles d’IA devraient être entraînés en prenant des personnes aux profils (origines, milieux sociaux, genres, âges) très différents afin que des modèles d’IA beaucoup plus variés et plus représentatifs de toutes les sociétés apparaissent dans le travail généré par le logiciel.

* Les technologies doivent apporter une productivité basée sur l’efficacité et le bien-être au travail des employé·e·s, et non juste un rapport de productivité basé sur les coûts et la performance. Le modèle économique sous-jacent doit être questionné. Il est important d’ouvrir un débat de société sur l’avenir du travail et la place de la machine.

* Compte tenu de la situation précaire des travailleur·euse·s du clic, il semble essentiel d’exiger de la transparence sur leurs conditions de travail auprès des grandes entreprises de l’IA et d’exiger le respect des droits du travail et des salaires décents.

* Il est essentiel de permettre à tous les humains d’avoir accès aux IA de manière égale.

* Les IA doivent également aider l’humanité à trouver une solution au dérèglement climatique, pas devenir un problème.

* Une véritable éducation aux intelligences artificielles est nécessaire afin de les utiliser de façon optimale : apprendre aux citoyen·ne·s comment faire la recherche, comprendre et analyser la réponse apportée et l’utiliser à bon escient.

Énergie et ressources

Nous devrions également réfléchir à l’optimisation de la collecte de données : ne pas les prendre au hasard juste pour remplir la base de données mais généraliser des pratiques raisonnables comme effectuer un tri afin de ne garder que les données utiles, supprimer les données inutiles ou prises de façon illicites afin d’éviter qu’un trop gros stockage n’entraîne une surconsommation d’énergie. Limiter le nombre de paramètres des IA est aussi essentiel pour les dimensionner de façon robuste18, en garder le contrôle, protéger la vie privée et éviter la débauche énergétique.

Régulation, gouvernance, réglementation

* Avoir des investissements publics communs, au moins au niveau de l’Union européenne, pour développer des IA correspondant aux critères émis ici.

* Parmi ces investissements, financer des études d’évaluation des risques des IA en vue de les atténuer semble essentiel.

* Une harmonisation des législations sur l’IA serait certainement souhaitable. C’est pourquoi les citoyen·ne·s de ce groupe de travail préconisent d’universaliser l’IA Act et de renforcer la coopération internationale sur ce dossier. A cette fin, créer une institution de régulation mondiale de l’IA pourrait s’avérer utile.

* Afin de s’assurer que l’IA Act soit implémenté de façon démocratique, il serait positif de mettre en place une méthode de participation citoyenne dans l’évaluation continue de l’IA Act.

* Dans la même idée, il s’agit de promouvoir des applications inclusives et utiles de l’IA, facilement appropriables par les citoyen·ne·s afin que ceux/celles-ci puissent en constater les bénéfices.

* Organiser des panels citoyens ou états généraux de l’IA afin de déterminer à quels besoins l’IA peut répondre.

* Dans le but d’appropriation citoyenne de l’IA, il est important que tout ce qui soit généré par l’IA soit disponible en open source.

En conclusion :

Les intelligences artificielles font à présent partie de notre quotidien, que ce soit à travers notre utilisation des réseaux sociaux ou d’applications mobiles, la captation de données dans l’espace public, ou encore dans certaines pratiques et milieux professionnels. Difficile donc d’imaginer en faire abstraction. Tout comme il en va de la responsabilité des pouvoirs publics d’être transparents sur leur utilisation des intelligences artificielles et de les rendre accessibles au citoyen, il en va également de notre responsabilité de nous informer et d’adopter une démarche consciente et critique sur les IA. Insistons encore une fois sur les principaux messages de notre groupe citoyen. L’IA contient un grand potentiel pour le développement humain à condition qu’elle soit utilisée avec transparence et en faveur du bien commun. La gouvernance de l’IA est essentielle, doit être la plus transversale possible, coopérative entre les États et démocratique en rassemblant de multiples parties prenantes (entreprises, décideurs politiques, société civile, citoyen·ne·s). Le bien commun, débattu collectivement, devrait conditionner tout développement de l’IA et supplanter les seuls objectifs commerciaux du secteur privé. Ne renonçons pas à décider de l’orientation et des usages des IA. En ce sens, l’éducation à l’esprit critique est plus que jamais indispensable, dès l’école secondaire. Cette couche transversale d’apprentissage doit permettre aux plus jeunes de critiquer une information, sa provenance, sa qualité, etc. en comprenant la mécanique des IA et leurs biais. Enfin, nos gouvernements devront s’assurer que les IA ont leur place dans un monde respectueux des limites planétaires. Le développement accéléré auquel on assiste aujourd’hui repose sur des bases matérielles (énergie, ressources, eau, etc.) bien réelles dont les usages doivent être réfléchis, tant ces ressources sont fragiles et sous tension. Plus largement, certains garde-fous fondamentaux doivent présider aux évolutions des IA comme la centralité de l’humain dans la prise de décision. Un large débat citoyen mériterait d’être organisé pour décider collectivement de la place des IA et les secteurs dont elle devrait rester exclues. Plus que jamais, nous devons faire le choix de l’humain.

1Cette partie est principalement issue de l’intervention de Jonathan Vandescotte, conseiller numérique au centre Jacky Morael, le 11 novembre 2023.

2La cybernétique est une science qui utilise les résultats de la théorie du signal et de l’information pour développer une méthode d’analyse et de synthèse des systèmes complexes, de leurs relations fonctionnelles et des mécanismes de contrôle.

3Un chatbot est un programme informatique capable de simuler une conversation avec un utilisateur humain.

5Strubell, Emma, et al. « Energy and Policy Considerations for Deep Learning in NLP ». ArXiv:1906.02243 [Cs], juin 2019, http://arxiv.org/abs/1906.02243.

6PIQUARD A., « L’explosion de la demande d’électricité liée à l’IA a déjà des conséquences locales », Le Monde, 8 février 2024

7Voir le livre de CASILLI A. A., « En attendant les robots. Enquête sur le travail du clic », Paris, Seuil, 2019

8Pour aller plus loin, lire cet article d’Asma Mhalla, « Technopolitique de l’IA : luttes idéologiques, tensions géopolitiques, espoirs démocratiques », avril 2023

9Le projet de smart city se fonde sur la collecte et le traitement de données pour améliorer le fonctionnement d’une ville.

10L’IA Act est une législation européenne visant à encadrer l’IA. Elle classe les pratiques et applications d’intelligences artificielles selon différents niveaux de risque. Une autorité européenne de l’IA va être mise en place. Il faudra encore 3 ans avant que la législation soit en vigueur dans les États Membres.

11La biométrie permet, via les techniques informatiques, de reconnaître un individu à partir de ses caractéristiques physiques, biologiques ou comportementales.

12Si le remplacement n’est a priori pas massif, certains emplois sont malgré tout sérieusement menacés. Il en va ainsi par exemple des comédien·ne·s spécialisé·e·s dans les métiers de la voix enregistrée (doublage vocal), dont deux représentantes de l’association Belva et UVA ont participé à l’UC. Voir à ce sujet leur carte blanche : https://www.lalibre.be/debats/opinions/2023/12/05/cher-mathieu-michel-mesurez-vous-bien-les-risques-lies-a-lintelligence-artificielle-2KCDH7JNVRCHTD4KZL4KFR7KJM/

13VINCENT Elise, Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs, dans Le Monde, 5 décembre 2023

14Ce sont des technologies de machine et deep learning qui sont à l’œuvre quand le réseau social affiche des contenus en fonction de vos centres d’intérêts, vous suggère des amis à ajouter en fonction de votre parcours ou de vos interactions, les identifie dans vos photos à partir de la reconnaissance faciale ou analyse automatiquement les images que vous postez pour les interdire automatiquement si elles ne respectent pas les règles du réseau.

15Voir l’interview de El Mahdi El Mhamdi, « Les IA génératives font diversion à celles des réseaux sociaux », dans Usbek & Rica, mai 2023

16Écouter à ce sujet le podcast « le code a changé » sur France Inter, « Comment Internet favorise la droite », https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/pourquoi-internet-favorise-la-droite-2707050

17Sans compter la politique de désinformation via le cyber exploitée par la Russie.

18Pour en savoir plus, voir l’interview de El Mahdi El Mhamdi, « Les IA génératives font diversion à celles des réseaux sociaux », dans Usbek & Rica, mai 2023

Share This