bernadette rouvroy

Les big data occupent régulièrement les espaces de débats et d’actualité, le plus souvent autour d’un regard suspicieux voire négatif. Le scandale Cambridge Analytica, du nom de la société anglaise ayant mis la main sur les données de plusieurs millions d’abonnés Facebook au profit de la campagne présidentielle de Donald Trump a amené nombre de réactions. Toutefois, les comportements individuels n’ont guère été bouleversés sur le moyen terme. Les plate-formes autour des GAFA (acronyme de Google, Amazon, Facebook et Apple) continuent d’être utilisées en masse.

Le débat se pose donc, aujourd’hui, sur l’espace des libertés que le big data laisse encore aujourd’hui aux usagers du Web. Juriste et philosophe du droit aux Facultés de Namur et chercheuse au FNRS, Antoinette Rouvroy, dont les recherches se centrent sur la question de la norme et du pouvoir à l’heure de la révolution numérique, a accepté de répondre à nos questions sur ce sujet.

Etopia : On ne compte plus, aujourd’hui, les articles ou vidéos qui vantent les « services » que peuvent apporter les objets dotés d’intelligence artificielle. Parfois même, ces derniers se retrouvent « testés » face à des humains, dans une logique de compétition devant définir qui est « le plus intelligent ». Les données et les algorithmes sont aujourd’hui même parfois présentés comme un moyen d’éclairer les décisions prises par les femmes et les hommes, de l’acte quotidien le plus banal (trouver et choisir un restaurant) jusqu’à certaines prises de décisions stratégiques (comme en bourse). L’intelligence artificielle compléterait-elle notre intelligence humaine ?

Antoinette Rouvroy : C’est une question qui mérite beaucoup de développement. On a peur de l’idée d’un remplacement de l’intelligence humaine : je peux être remplaçable pour des tâches non répétitives. Il s’agit réellement d’une peur, d’une angoisse existentielle. Or, il ne faut pas oublier qu’on parle d’une intelligence qui, au final, n’en est pas une. L’intelligence artificielle, c’est d’abord et avant tout des capacités de calcul. Kant faisait la distinction entre la rationalité et l’entendement. Des machines nourries au big data sont capables bien plus fortement que nous de rassembler des données. Mais elles sont et restent incapables de donner du sens à ces données. Si on veut, effectivement, voir les choses de manière rationnelle, il est nécessaire de concevoir une complémentarité entre l’intelligence humaine et l’intelligence artificielle. Pour le moment, nous restons simplement face à de la détection de corrélation entre des données massives mais sans y donner du sens. Ce sens, cette capacité de rendre ces données intelligibles, de les mettre en mouvement, de les interpréter, c’est un ressort qui reste humain. La machine, elle, détecte et tente de faire des prédictions.

Il est fondamental de garder à l’esprit le fait que l’intelligence artificielle fonctionne différemment : elle n’habite pas le monde que nous habitons. Quand bien même elle serait incorporée dans un robot humanoïde, elle se trouve dans un autre espace où les seuls objets qui existent sont des espaces de données. Nous, les humains, avons, grâce à l’enseignement, la perception des objets, de catégories mentales. Dans l’intelligence artificielle il n’y a aucun objet qui préexiste au traitement des données. Rien ne borne donc la récolte des données. On se trouve dans un monde sans hypothèse, sans savoir scientifique. Si cela ne produit pas de la science, cela produit des espaces spéculatifs, des profils, une modélisation. Il ne décrit pas ce qui est mais ce qui pourrait être.

La situation actuelle est celle dans laquelle nous mesurons la force des corrélations, où nous décidons d’un seuil où cette corrélation est représentative. À partir de là se réalise la modélisation des comportements qui seront fondés dès lors sur des données infra-personnelles et qui corrélées par rapport aux autres vont donner des probabilités. Cette approche par la corrélation peut aller plus vite que la recherche des causes. On peut avoir des données fines, qui vont plus loin que la statistique classique et qui permettent de détecter des choses qui ne seraient pas vues autrement.

Etopia : Dans vos différents travaux, vous affirmez que le big-data est à l’origine d’un nouveau type de pouvoir, la « gouvernementalité algorithmique ». Ce concept permet d’aborder la manière dont les algorithmes imposent une gestion des sociétés basées sur la base des données qui s’échappent des individus. Cela voudrait-il dire qu’un nouveau mode de gouvernement pourrait apparaître, avec de nouvelles applications concrètes ?

Antoinette Rouvroy : Dans un premier temps, il est nécessaire de comprendre les problèmes soulevés par cette manière de gérer. Ce qui est toxique, c’est le moment on l’on se sert de ces espaces spéculatifs pour gouverner le monde. En récoltant toute une série de données à votre propos, auprès de vos comportements de consommation, vous pourriez être éliminés par certains acteurs qui spéculeront sur vos comportements à venir, considérés comme potentiellement à risque. La liberté implique de ne pas devenir ce qu’on pourrait devenir ou ce qu’on pourrait être capable de faire. C’est un déterminisme qui n’est plus attribué aux caractéristiques sociales des personnes mais qui s’articule simplement aux relations numériquement enregistrées que la personne peut avoir eu avec son environnement. On s’intéresse à nous en tant que réseau de données, un homo numericus.

Il ne s’agit plus, en fait, de puissance publique. La « gouvernementalité algorithmique » pourrait même amener à se passer de toutes formes d’institutions. On peut être ainsi plus gouverné par les GAFA, l’architecture informatique, les entreprises que par les institutions nationales, élues. Cette gouvernementalité est une crise de la représentation. C’est le rêve d’immanence totale dans lequel le réel se gouvernerait lui-même sans qu’aucune autorité n’ait plus à décider. Les gens ont d’ailleurs envie d’être profilé, de se sentir unique. Ils ne veulent plus d’intermédiation mais plutôt que la moindre de leur pulsion soit satisfaite. C’est l’hyper-individualisation. On se trouve face à l’hyper-capitalisme illibéral.

Etopia : Comment contre-carrer ces tendances, ce pouvoir des algorithmes sur nos vies ? Comment démystifier l’intelligence des données ? Le salut viendra-t-il d’une responsabilisation individuelle des citoyens ? Les pouvoirs publics ont-ils un rôle à jouer en la matière ?

Antoinette Rouvroy : L’enjeu n’est plus celui de la vérité ou de l’authenticité mais celui de produire des prédictions qui ne sont ni vraies ni fausses. mais suffisamment fiable que pour justifier des stratégies d’action.

Le rôle des pouvoirs publics est d’occuper ces espaces publics qui ont été déserté.Les plate-formes ont colonisé ces espaces. Pour politiser ces questions, il faut d’abord voir à quoi on a affaire. Or ce débat, aujourd’hui, est mal compris. Nos sociétés manquent de culture algorithmique. Dès lors on fait beaucoup trop confiance aux modélisations. Il faut donc promouvoir l’éducation aux algorithmes, à cette nouvelle forme de rationalité, qui est en passe de transformer la rationalité occidentale. Aujourd’hui, les algorithmes ont pris le rôle de la critique. Ils défont nos images, nos catégories.

Pour moi, la politique surgit dans ces moments, dans ces endroits où on perçoit bien les limites de la représentabilité. Les algorithmes peuvent les faire entendre. Là, c’est intéressant. Ce qu’il faut valoriser dans l’intelligence artificielle, ce n’est pas nous prémunir de l’incertitude, clôturer l’avenir, mais bien le décloisonnement, l’ouverture que cela nous offre. Cet apprentissage ne se conçoit pas sans penser en même temps qu’on est dans de l’indécidable, que les données n’épuisent jamais le monde dans lequel on prolifère. On doit utiliser les algorithmes de manière différente que ce que l’on fait aujourd’hui. Encore trop souvent, nous les utilisons suivant une vision du passé. Or, il est nécessaire de le faire dans l’autre sens. Au final, il ne faut plus se laisser tenter par la pure optimisation.

Share This