Qui n’a jamais vu apparaître, sur un site web ou un réseau social, une publicité pour un produit dont on a consulté la page web quelques instants plus tôt ? Sur internet, notre navigation et nos interactions quotidiennes génèrent des quantités industrielles de données (le big data), exploitées à notre insu pour nous adresser des contenus promotionnels « personnalisés ». Les mécanismes de profilage des internautes et de ciblage des messages reposent largement sur le travail invisible des algorithmes. Ils soulèvent des enjeux majeurs en matière d’accès à l’information et plus largement de débat démocratique. Issues de la sphère commerciale, les techniques de ciblage publicitaire s’étendent au domaine politique et menacent de renforcer la polarisation de l’espace public. Elles mettent en danger les conditions cadre d’un débat fondé sur la confrontation d’arguments et l’usage public de la raison, tel que l’a théorisé le philosophe allemand Jürgen Habermas1.
Le fonctionnement du ciblage publicitaire numérique
Nos activités numériques sont enregistrées et servent à nous classer. Des profils d’internautes qui se ressemblent sont constitués, au travers d’opérations complexes d’extraction et de traitement statistique des données numériques (datamining) permettant une modélisation des comportements. Ce travail de segmentation constitue le substrat technique du processus de personnalisation de la publicité, grâce auquel un contenu promotionnel est supposé acquérir une pertinence élevée pour l’individu à qui il est délivré, puisqu’il est « taillé sur mesure » pour celui-ci, ou plutôt pour le profil auquel son activité numérique le rattache2.
Le ciblage comportemental s’est développé à grande vitesse avec la multiplication des réseaux sociaux et l’expressivité généralisée qui s’y est développée. À partir des contenus que l’on publie, consulte, « like », commente et partage, les algorithmes des fournisseurs de services numériques identifient nos centres d’intérêt et nos goûts, et en déduisent notre propension à agir d’une certaine manière. Il est important de comprendre que la dimension intrinsèquement participative du web social sert directement les intérêts marchands des annonceurs. Chaque information personnelle que nous divulguons, volontairement ou à notre insu, se voit attribuer une valeur commerciale dans les gigantesques bases de données dont se « nourrissent » les algorithmes. Selon les principes de l’économie de l’attention3, ces derniers traitent les données de manière à répartir les internautes en profils types, puis cherchent à orienter les activités de ces dernier·e·s en multipliant les recommandations personnalisées à leur égard4.
Ces mécanismes prennent une tournure délicate dans la sphère politique, où ils sont aujourd’hui largement utilisés5 et où ils interrogent les dimensions constitutives du débat au sein d’un espace public qu’ils contribuent à polariser. L’ampleur du datamining et du profilage politique a été révélée en 2018 par le scandale Cambridge Analytica – du nom de l’entreprise de « communication stratégique » qui a collecté illégalement des informations sur plusieurs millions d’utilisateur·trice·s de Facebook, principalement aux Etats-Unis et en Grande-Bretagne, pour envoyer des messages électoraux ciblés à divers segments d’internautes en fonction de leur appartenance à un « profil psychographique » d’électeur·trice6.
Les conséquences problématiques du profilage électoral
En divisant l’électorat selon des critères opaques et en personnalisant des messages persuasifs, le profilage politique s’apparente à de la propagande8. D’une part, selon le profil dans lequel le datamining inscrit chaque individu, les informations qui lui sont adressées diffèrent fondamentalement de celles destinées à des profils opposés. D’autre part, les messages sont conçus de manière à renforcer les opinions de chaque profil, voire à le conforter dans ses croyances, y compris au moyen de propos spécieux ou mensongers. La prolifération des données personnelles en ligne et la multitude de critères de segmentation et de ciblage, alliées à l’opacité des algorithmes qui mettent en œuvre la circulation des messages, ouvrent ainsi la voie à une forme insidieuse d’ingénierie politique fondée sur la modélisation et la prédiction des comportements électoraux. Cela remet en cause l’idéal de la délibération collective et de la formation éclairée de l’opinion par la confrontation publique d’arguments. Le ciblage politique fait finalement peser le risque d’un délitement de l’espace public démocratique, en distribuant des contenus de plus en plus antagonistes à des audiences de plus en plus précises et fragmentées9.
Le phénomène et ses conséquences commencent seulement depuis peu à être thématisés auprès du grand public10. Pourtant, en 2017, à l’approche du 30ème anniversaire du world wide web, son « père fondateur », Tim Berners-Lee, pointait du doigt trois tendances qui empêchent la Toile d’être « un outil au service de l’humanité tout entière »11 : la perte de contrôle sur nos données personnelles, la propagation de la désinformation et le manque de transparence dans la publicité politique. Il est nécessaire que nos élu·e·s prennent le sujet au sérieux. L’augmentation des menaces verbales et parfois physiques à l’encontre de certain·e·s d’entre eux lors de crises, montrent que ces crispations mettent déjà l’espace public démocratique, et ses règles du jeu, en tension.
Une plus grande transparence des algorithmes prédictifs est aujourd’hui réclamée de toute part. Il est en effet urgent que leur conception, tout comme celle des bases de données qui alimentent leurs décisions, devienne l’objet d’un débat public, afin d’éviter que leurs usages ne biaisent la possibilité même du débat démocratique.
Références
[1] Habermas J. (1988 [1962]), L’espace public. Archéologie de la publicité comme dimension constitutive de la société bourgeoise. Paris : Payot.
[2] Voir par ex. Turow J. (2011), The Daily You: How the New Advertising Industry Is Defining Your Identity and Your Worth. New Haven: Yale University Press ; Hoofnagle C. J. et al. (2012), Behavioral Advertising: The Offer You Cannot Refuse. Harvard Law & Policy Review, 6(2), p. 273-296.
[3] Kessous E., Mellet K. & Zouinar M. (2010), L’économie de l’attention : entre protection des ressources cognitives et extraction de la valeur, Sociologie du travail, 52(3), p. 359-373.
[4] C’est la raison pour laquelle les données numériques sont souvent présentées comme le « pétrole » de l’économie numérique. Ainsi que l’explique le philosophe des sciences Nick Srnicek : « nous devrions considérer les données comme la matière première à extraire, et les activités des usagers [du web] comme sa source naturelle. », dans Srnicek N. (2018), Capitalisme de plateforme. L’hégémonie de l’économie numérique. Montréal : Lux, p. 45.
[5] Pour le cas de la France : Theviot A. (2019), Big data électoral. Dis-moi qui tu es, je te dirai pour qui voter, Lormont : Le Bord de l’eau.
[6] The Guardian (2018-2020) : The Cambridge Analytica Files.
[7] The Guardian (23.03.2018), Trump adviser John Bolton worked with Cambridge Analytica on YouTube voter experiment. La vidéo, issue de l’article du Guardian, se trouve sur YouTube à cette adresse : https://www.youtube.com/watch?v=ReAQcReXXaQ
[8] Woolley S. C. & Howard P. N. (eds.) (2018), Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media, New York: Oxford University Press.
[9] Voir par ex. Tufekci Z. (2014), Engineering the public: Big data, surveillance and computational politics, First Monday, 19(7) ; Jammet T. (2023), Portrait de l’internaute en cible marchande. La construction algorithmique d’une rhétorique publicitaire innovante, dans Theviot A. (dir.), Gouverner par les données ? Pour une sociologie politique du numérique, Lyon : ENS Editions, p. 95-112.
[10] Voir notamment le documentaire The Social Dilemma (Jeff Orlowski, 2020) et l’émission de Complément d’enquête « Big data : quand les politiques nous ciblent ! » (Chloé Vienne, 14.04.2022).
[11] Berners Lee T. (2017), Three challenges for the web, according to its inventor, World Wide WebFoundation.
Auteur
Thomas Jammet est adjoint scientifique à la Haute école de travail social Fribourg (HETS-FR / HES-SO) et chercheur associé à l’Université de Neuchâtel. Sa thèse de doctorat, effectuée à l’Université Paris-Est (Gustave-Eiffel), est consacrée aux stratégies de communication sur les réseaux sociaux numériques, au prisme de l’activité de community management. Ses recherches actuelles portent sur les enjeux de la numérisation dans le domaine du travail social. Il est aussi l’un des co-auteurs de la bande dessinée « Au secours, mon papa est sociologue ! » (Editions Livreo-Alphil, 2022).
Open Access
Cette publication est en accès libre, sous licence CreativeCommons CC BY-SA 4.0.
Disclaimer
Les articles du blog peuvent contenir des opinions exprimées par les auteur·e·s et ne représentent pas nécessairement la position de l'employeur respectif ou de l'ASSH.