Performativité et individuation algorithmique: Influence des technologies a-normatives, disparition de l’expérience commune
This is placeholder text. To change this content, double-click on the element and click Change Content.

INTRODUCTION: LA NOTION DE GOUVERNANCE ALGORITHMIQUE
Le 06 février 2020 s'est tenu, à Paris, une conférence portant sur l'algorithmique commerciale intitulée "Future of programmatic : AI and Custom Algorithms". Succinctement, l'objet de cette conférence était de répondre à la question : "Concrètement, que font les algorithmes?", suscitée par le constat des orateurs selon lesquels "10 ans après leur apparition dans le marketing digital, les mécaniques d'achat programmatique restent un mystère pour beaucoup". Cet évènement était organisé conjointement par deux entreprises, Scibids et IgnitionOne. Scibids a été fondée en 2016 et est spécialisée dans le Media trading, soit l'activité d'optimisation d'achats et de ventes d'espaces publicitaires auprès d'annonceurs. IgnitionOne est une entreprise qui a développé son modèle commercial autour de l'exploitation de "l'intelligence client", soit l'exploitation en temps réel de l'activité en ligne des clients, à des fins de profilage marketing et de rentabilisation des données produites. Ces deux organisations ont dès lors comme point commun de déployer des outils algorithmiques afin de réaliser leurs objectifs : L'extraction de données et le profilage individuel à des fins commerciales, et la gestion d'espaces publicitaires en lignes selon une logique d'enchères. Il s'agit d'une forme particulière de statistique décisionnelle, conventionnellement nommée gouvernance algorithmique.
La gouvernance algorithmique est un label décrivant "l'extension de la notion foucaldienne de gouvernementalité à l'usage administratif des algorithmes" [1]. Plus précisément, c'est l'affectation d'un dénominateur commun à différentes pratiques tendanciellement convergentes: la sous-traitance et l'automatisation de processus de décision à des algorithmes, ou encore le traitement de données massives collectées et stockées au travers de vastes systèmes de monitorage et qui ne peut être effectué par l'intellect humain [2]. Ci-après, nous nous réfèrerons à la définition offerte par Antoinette Rouvroy, soit la gouvernance algorithmique comme "un certain type de rationalité a-normative ou apolitique reposant sur la récolte, l'agrégation et l'analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles" [3]. Étant donné que l'algorithmique est une discipline dont l'existence précède les sciences informatiques, précisons que notre travail se concentre sur les effets que l'informatisation de l'algorithmique et les puissants outils (Machine Learning, réseaux de neurones, etc.) de traitement de données ont sur l'individuation. Cela implique de comprendre le développement de la gouvernance algorithmique comme le fruit d'une dialectique incrémentale permanente : Celle du développement conjoint de la puissance des algorithmes et de la formation et l'accès de vastes Big data [4], se nourrissant mutuellement. Pour autant, cette notion ne décrit pas une stratégie homogène et centralisée, dont les tenants et aboutissants sont définis a priori. Les acteurs et usages varient. Il peut s'agir des gouvernements (Sécurité, contrôle, optimisation budgétaire, etc.), des entreprises privées (marketing, individualisation de l'offre, gestion de stocks, optimisation des services fournis, etc.), des scientifiques (accroissement des informations et des connaissances sur des objets d'études, etc.), voir même des individus eux mêmes qui contribuent de bonne volonté à ce modèle économique (souscription, géolocalisation, identification, mailing list, etc.) [3].
SUR L'INDIVIDUATION ALGORITHMIQUE PROCÉDURALE
La conférence tenue par Scibids et IgnitionOne n'est donc qu'une modeste trace qui préfigure pourtant la diffusion toujours plus intense de cette gouvernance algorithmique. Mais plus encore, elle manifeste que cette gouvernance est sous-tendue par une grammaire individualiste qu'elle contribue à créer et renforcer. Nous ne parlons pas d'hypothèses théoriques concernant un individu type moyen [3]. Que les sociétés modernes soient des sociétés hautement différenciées, produisant des systèmes d'organisations complexes, ce n'est pas une thèse nouvelle. Ce qui varie, cependant, ce sont les modalités de cette différenciation et, dans la dynamique sur laquelle nous travaillons ici, d'individuation. Ce processus d'individuation provient directement de l'organisation et des opérations effectuées au travers de dispositifs technologiques bien particuliers. Ces dispositifs de classification, de personnalisation fondée sur les comportements numériques, de recommandation ou encore de téléguidage s'opèrent sur des entités individuelles (GPS, smartphone, adresse mail, interface, profilage sur les réseaux sociaux, appareils de mesures divers et variées, etc), entités individuelles qui sont autant de supports matériels et vecteurs de données concourant à cette individuation procédurale. Dans le cas de IgnitionOne, qui exploite les données produites par l'activité en ligne de sa clientèle, c'est précisément ce processus d'individuation qui fonde le modèle économique de valorisation des différentes étapes du profilage. Les tarifs CPC (Coût par clic), CPM (Coût pour mille vues/affichages) ou encore à la conversion sont autant de concepts qui vont constituer un dispositif numérique agissant sur les comportements individuels en produisant un "savoir au niveau du profilage, qui n'est le plus souvent pas disponible aux individus ni perceptible par eux, mais qui leur est néanmoins appliquée de manière à inférer un savoir ou des prévisions probabilistes quant à leurs préférences, intentions, propensions qui ne seraient autrement pas manifestes" [3]. À cet égard, les études scientifiques du quantified self, la quantification de soi, annonçaient déjà la puissance performative de ces dispositifs technologiques. Le secteur de la santé a été l'un des premiers domaine d'émergence de ce mouvement. Les patients atteints de maladies chroniques faisaient usage d'appareils ergonomiques à bas coût, et enregistraient leurs performances afin de détecter des schémas dans celles-ci [5]. Des services comme ceux proposés par PatientsLikeMe offrent la possibilité de créer des réseaux sociaux fondé sur la connexion et le partage, par les partisans de la quantification de soi, de leurs données de santé. Une contrepartie commerciale étant que ces données étaient ensuite anonymisées et vendues à des compagnies pharmaceutiques, des laboratoires de recherche ou des universités [6]. Il serait intuitivement logique d'imaginer une continuité entre le mouvement du quantified self et la gouvernance algorithmique, dont la seule nuance serait l'accroissement exponentiel du volume de données accessibles. Nous pourrions seulement arguer que la gouvernance algorithmique fait usage d'une taxinomie qui s'approche le plus possible des individus et des corps, et que la git sa particularité, mais cela serait faussé. En effet, la taxinomie suppose la catégorisation a priori, ou selon des paramètres (socio- économiques, de genre, etc.) Par exemple, en France, depuis les années 1950, les études portant sur les statistiques d'emplois et la structure sociale de la "société française" se basaient sur "la nomenclatures des professions et catégories socioprofessionnelles (PCS) [...] découpage conçu à une époque ou la société française était structurée en groupes sociaux consistants, souvent dotées d'une forte conscience d'eux-mêmes et d'organisations représentatives puissantes (agriculteurs, ouvriers, patrons, cadres, etc.) [7], nomenclature établie par l'INSEE. Cependant, et il s'agit du point nodal de notre argumentation concernant l'individuation algorithmique, les normes de classification disparaissent dans le flot des données massives. Quelles que soient les finalités du data mining, la production d'extrants suit "une logique de corrélation qui reconstruit les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune norme générale, mais seulement à un système de rapports, éminemment évolutifs, entre diverses mesures, irréductibles à aucune moyenne" [3], et, dès lors, à aucune catégorie a priori.
L'effet de la gouvernance algorithmique sur l'individuation, c'est donc l'application incrémentale d'une série de savoirs sur les sujets, qui vont influencer son comportement et ce, suivant un degré de puissance bien plus élevé que n'importe quel processus d'étiquetage "classique". La légitimité supposée de ce mode de fonctionnement est qu'il est présenté - dans l'économie politique qui l'intègre - comme à la fois inoffensif et objectif. Miroir du réel, les données massives ne feraient supposément qu'offrir des corrélations qui se passent de l'intentionalité des acteurs, et de la construction d'hypothèses. Les normes et les biais sont - à ce stade - hors-jeu. Cependant, le traitement automatisé des données n'est pas exempt de velléités politiques. Plutôt, l'individualisation des services que renforce la gouvernance algorithmique reconfigure les lieux de controverse que sont les "besoins et dangers propres à chaque individu" [3]. L'affaire Cambridge Analytica, par exemple, démontre que cette reconstitution de cas singuliers hors de toutes normes contribue bel et bien à une individuation dont la précision est quasi-chirurgicale, en même temps qu'elle provoque une disparition du monde commun [3]. En effet, la personnalisation des annonces électorales en fonction des prédictions sur les préférences politiques établies par l'algorithme de Cambridge Analytica et diffusé via Facebook, fut décisif dans les choix de plus de 50 millions d'électeurs aux USA, en 2016. Cette inquiétude concernant la disparition du monde commun et l'absence de transparence résonne d'ailleurs en Europe, engageant des réflexions ultérieures sur la responsabilité des personnalités politiques : "When different promises are made to different citizens, it is difficult to hold politicians to account" [8].
CONCLUSION
Pour résumer, les inquiétudes que charrie la gouvernance algorithmique en matière d'individuation proviennent du fait que "le datamining et les processus de profilage inhérents aux nouveaux services offerts - ou sur le point de l'être - aux citoyens et consommateurs dans une société informationnelle avancée, peuvent supposément interférer avec l'autodétermination (ou subjectivation) de ceux ci, orientant leurs comportements, préférences, pensées, émotions et choix, compromettant la capacité à une véritable et réflexive autodétermination individuelle, ainsi qu'à la délibération collective" [9].
BIBLIOGRAPHIE
[1] Besse, P., Castets-Renard, C., Gariver, A. (2017). Loyauté des décisions algorithmique. Éthique et numérique, les algorithmes en débat.
[2] Danaher, J., Hogan, M. J., Noone, C., Kennedy, R., Behan, A., De Paor, A., Shankar, K. (2017). Algorithmic governance: Developing a research agenda through the power of collective intelligence. Big Data & Society.
[3] Rouvroy, A., Berns, T. (2013). Gouvernementalité algorithmique et perspectives d'émancipation: Le disparate comme condition d'individuation par la relation ? Réseaux, 177(1), 163-196.
[4] Kalousis, A., Gama, J., Hilario, M. (2004). On Data and algorithms : Understanding inductive performance. Machine Learning, 54, 275–312.
[5] Ballano Barcena, M., Wueest, C., Lau, H. (2014). How safe is your quantified self ? Symantec.
[6] Swan, M. (2009). Emerging patient-driven health care models : An examination of health social networks, consumer personnalized medicine and quantified self-tracking. International journal of Environmental research and public health.
[7] Desrosières, A.(2010) Vocabulaire des métiers et catégories socioprofessionnelles In : Noms de métiers et catégories professionnelles : Acteurs, pratiques, discours (XVe siècle à nos jours). Toulouse : Presses universitaires du Midi.
[8] Bouchez, P. (2019). Why artificial intelligence matters ? European parliamentary research service.
[9] Rouvroy, A. (2007). Privacy, Data Protection and the unprecedented challenges of ambient intelligence. Studies in Ethics, law, and technology.