Blog

Gouvernance algorithmique et démocratie, des finalités divergentes ?

Auteure: Solange Ghernaouti (UNIL) | Edition: Arnaud Gariépy (ASSH)
Gesellschaft – Kultur – Sprache

La gouvernance algorithmique envahit tous les champs d’action et secteurs d’activités de la société. Cet article présente quelques aspects problématiques de cette transformation numérique au regard des principes démocratiques.

Le code informatique n’est pas la loi

Le code informatique n’est pas la loi. C’est pourtant ce que voudraient nous faire penser toutes les entités qui définissent et commercialisent les programmes informatiques1 que nous utilisons, nous conduisant à accepter passivement que ce code ait force de loi. Cela contribue à justifier l’inutilité de toute démarche de régulation classique ou du moins à la retarder. Le slogan du juriste américain et professeur de droit Lawrence Lessig « Code is Law : «  », initialement porté par un idéal de liberté dans le cyberespace au tournant de l’an 2000, est désormais associé au slogan « There Is No Alternative » utilisé en 1980 par la première ministre anglaise Margaret Thatcher. L’acronyme TINA est devenu le mantra de la gouvernance algorithmique des affaires publiques et du bien commun. Or, le code informatique ne devrait pas avoir pour vocation de réguler la vie des citoyens et des institutions publiques et privées.

Consentir à ce que le code informatique, produit dans l’obscurité du monde des affaires des multinationales, impose les règles de fonctionnement de la société, donc que la loi du marché devienne le régulateur des affaires publiques, constitue un renoncement à une organisation et un contrôle démocratiques de la société. Cela peut être interprété comme une abdication du pouvoir de l’État-nation, puisque celui-ci se soumet dès lors implicitement à ceux et à celles qui réalisent, ou plutôt dirigent, la réalisation du code informatique.

La transformation numérique de la société est conçue selon une logique de rentabilité, de rationalité et de performance économiques au bénéfice de certains acteurs. Cela contribue entre autres à masquer les coûts sociaux et environnementaux, ainsi que les externalités négatives engendrées. Par la conception même qui caractérise le numérique, les inégalités sociales sont reproduites et renforcées, d’autant plus que le marché impose une solution unique initialement conçue pour gérer des entreprises privées tout en optimisation la valeur pour les actionnaires.

Désormais, ce sont notamment les villes, les hôpitaux, les écoles, les espaces et les transports publics qui sont gérés comme des entreprises, avec les conséquences subies par la population et les coûts portés par la société. S’opposer au fait que, subrepticement, le code informatique fasse la Loi et devienne la Loi passe non seulement par la défense de nos valeurs démocratiques mais aussi par une certaine idée de la souveraineté numérique. Une telle défense et une telle idée ne sont pas compatibles avec une soumission de la population à des algorithmes non transparents, non explicables et non vérifiables. Les algorithmes ne sont en effet qu’un ensemble de règles transcrites dans des programmes informatiques qui conditionnent notre vie en nous donnant accès ou non à des biens et services selon des critères variables. Ces algorithmes ne sont jamais décidés ouvertement, ni démocratiquement, ni vérifiés par des tiers indépendants (avec quelques exceptions dans les cas de code open source). Ils ne peuvent être questionnés, pourtant ce sont eux qui vont décider de notre employabilité, de notre accès à un crédit financier, du montant de notre assurance, du coût d’un trajet ou encore des soins auxquels nous allons avoir droit.

Alors qu’il s’agit souvent de choix relevant de la vie en société, de la manière de faire société et, par conséquent, de la morale et de la culture d’un pays, ces algorithmes complexes, développés dans l’obscurité et le secret des affaires des entreprises qui les commercialisent, sont opaques. Ils créent l’illusion que les questions morales difficiles peuvent avoir des réponses technologiques simples. Ce qui est faux.

Les algorithmes ne sont pas construits d'une manière démocratique, collective et responsable. Leur conception n’est pas le reflet d’une compréhension définie en commun de ce qui est désirable, équitable ou socialement juste. Les algorithmes du numérique sont conçus, réalisés, gérés, utilisés pour être au service d’une vision entrepreneuriale caractérisée par la recherche de la rentabilité et du profit. Ils ne représentent pas l’idéal démocratique d’une société alors même qu’ils imposent ce qui devrait relever du politique, du juridique et du social, donc être soumis à la décision et au contrôle démocratiques.

L’obscurité algorithmique

Comment être sûr de la véracité et de l’exactitude des résultats produits par un système invérifiable, dont on ne connaît pas le jeu de données utilisé, ni les opérations effectuées pour obtenir des résultats ? Un système, qui plus est, dont ni la fiabilité, ni l’innocuité ni la sécurité ne peuvent être garanties.

Le numérique que nous mettons en œuvre avec une recherche sans fin de nouveaux gains d’efficacité, de rapidité et de pseudo-réduction des coûts ne fait que déplacer ces derniers sur d’autres entités. La technologie, la mise en données du monde, les traitements informatiques ne sont pas neutres ni « propres» du point de vue écologique. Ils reflètent une vision du monde et servent les intérêts de certains acteurs au détriment des populations, notamment des plus humbles, et de nombreux écosystèmes. Ils servent une idéologie qui n’est pas compatible avec les valeurs démocratiques telles que défendues jusqu’à présent. Désormais, ce n’est pas le « souverain » (le peuple), mais une poignée de techniciens, qui code les nouvelles règles comportementales, règles qui ne sont jamais définies ou débattues démocratiquement.

Comme le souligne le journaliste spécialisé et ancien rédacteur en chef de la plateforme InternetActu.net Hubert Guillaud dans son article « Les algorithmes contre la Sociale. On ne fera pas société en calculant son efficacité maximale » : « Derrière l’interconnexion totale, il y a une orientation politique, des “objectifs” assignés au calcul »2. Le risque auquel nous sommes confrontés c’est de laisser décider aux ingénieurs et systèmes le rôle de définir les frontières morales des systèmes techniques qu’ils mettent en place.

La démocratie algorithmique n’existe pas

Les entreprises privées réalisent des services, y compris d’intelligence artificielle, et contribuent à imposer des normes et des comportements. Elles ne sont pas des institutions démocratiques, mais représentent une oligarchie numérique.

Il s’agit d’un régime techno-politique dans lequel la souveraineté appartient à un petit groupe de personnes, constitutives d’une élite puissante qui met en code et en services informatisés tous les aspects de la vie. Ces services, dont les individus, les organisations et les États sont devenus dépendants, reflètent la vision du monde des acteurs économiques les plus puissants de la Planète. Même s’il arrive que des services soient déclinés par des acteurs aux slogans et motivations plus acceptables socialement ou qu’il existe des acteurs soucieux des questions de justice sociale et environnementale, la majorité des fournisseurs de technologie numérique ne représentent pas le peuple, ni ses intérêts. La plupart font partie d’une nouvelle aristocratie numérique constituée par quelques privilégiés qui détiennent les infrastructures numériques et le pouvoir associé, sans qu’il existe encore un réel contre-pouvoir. Cette nouvelle élite du code qui se décline en une armée de consultants oriente les choix politiques et sociaux, cela à l’échelle mondiale.

Nous ne pouvons pas ignorer les propos du data scientist David G. Robinson, dans son ouvrage paru en 2022 Voices in the Code: A Story about People, Their Values, and the Algorithm They Made : « Le risque est de transformer les questions morales en questions techniques pour faire disparaître leur aspect moral et donc politique »3. Robinson met en évidence le fait que plus il y a de décisions prises de manière algorithmique, plus il y a d’informatique, moins il y a de démocratie.

Références

[1] Un programme informatique ou une application qui réalise un service est une transcription codée d’un algorithme. Cela est souvent désigné par « le code ».

[2] Guillaud, Hubert : Les algorithmes contre la Sociale. On ne fera pas société en calculant son efficacité maximale, blog personnel, 15.12.2022, https://hubertguillaud.wordpress.com/2022/12/15/les-algorithmes-contre-la-sociale, consulté le 11.07.2023.

[3] Robinson, David G. (2022) : Voices in the Code: A Story about People, Their Values, and the Algorithm They Made, New York: Russell Sage Foundation.

Auteure

Solange Ghernaouti est docteure en Informatique et Télécommunication. Première femme professeure nommée en 1987 à la faculté des HEC de l’Université de Lausanne, elle est une figure pionnière de l’interdisciplinarité de la sécurité et des risques numériques. Experte internationale en cybersécurité, cyberdéfense et lutte contre la cybercriminalité, très engagée en faveur des droits humains et des libertés civiles, elle siège à la Commission suisse pour l’UNESCO en tant qu’experte de la maitrise des risques liés aux technosciences et à leurs impacts sur la société et le vivant. Elle dirige le Swiss Cybersecurity Advisory and Research Group. Elle préside la Fondation suisse SGH – Institut de recherche Cybermonde. Ses derniers livres : « Cybersécurité, risques & solutions » ; « Off », avec Philippe Monnin, roman sur la dépendance numérique, les interdépendances critiques et la fragilité du nouvel ordre ainsi instauré.

Open Access

Cette publication est en accès libre, sous licence CreativeCommons CC BY-SA 4.0.

Disclaimer

Les articles du blog peuvent contenir des opinions exprimées par les auteur·e·s et ne représentent pas nécessairement la position de l'employeur respectif ou de l'ASSH.