Details

L’IA comme défi, bis repetita

Autor: Arnaud Gariépy (SAGW)
Sociétés – langues – cultures Big Data

Les outils d’intelligence artificielle (IA) posent des défis majeurs à la société dans son ensemble. La question de la transparence du fonctionnement des algorithmes représente un enjeu important, tout comme l’intégrité des informations et des contenus générés.

En 2023, nous avions souhaité expérimenter – comme tout le monde – la génération d’images grâce à l’intelligence artificielle (IA). Chaque newsletter de l’ASSH a ainsi été illustrée pendant une année avec Dall·E de l’entreprise OpenAI. Ce service permet via des descriptions contextuelles – les prompts – de générer des illustrations dans des styles différents. Par exemple : «A fish tries in vain to climb a tree outside the water» (newsletter 2023 n° 2). L’essai était concluant, le travail un peu différent et assez ludique. Qu’est-ce qui a changé depuis ?

Dall·E est devenu payant et a été intégré par Microsoft, principal actionnaire d’OpenAI. L’autre service phare de la firme californienne, ChatGPT, a continué sa progression fulgurante pour atteindre quelque 180 millions d’utilsateurs·trices mensuel·le·s. Depuis sa création, OpenAI est ainsi passée de laboratoire de recherche à but non lucratif au statut d’entreprise florissante de la Silicon Valley, capitalisée à 29 milliards de dollars. L’idéalisme affirmé sur les fonts baptismaux s’est érodé au contact de la réalité des levées de fonds.

L’éléphant dans la pièce : les questions éthiques

L’un des grands atouts des IA génératives se situe dans leur capacité à traduire, à synthétiser et à interroger d’immenses quantités d’informations, ainsi qu’à produire un nombre quasi illimité de types de contenus et d’analyse. Or, en matière de communication et d’information, la question du contexte est essentielle : qui a élaboré le contenu ? Comment et avec quelles sources ? 

D’une manière générale, les systèmes d’IA actuels restent des boîtes noires et le potentiel disruptif est si grand qu’une partie encore relève de l’impensable. Il faudra s’adapter, accepter les innovations qui bouleversent les habitudes et gérer au mieux les conséquences socio-économiques. Désormais, le train est lancé. Nous sommes des millions d’individus à travailler gratuitement chaque jour en livrant nos idées, nos fichiers et nos pensées aux outils d’IA en ligne. Le sociologue des sciences et des techniques Florian Jaton écrivait en 2023 : « Si les données numériques sont le nouvel or noir du siècle actuel, leur exploitation grâce aux algorithmes – et la fabrication de ces derniers – ne devrait pas être laissée à la discrétion des seuls spécialistes en informatique et d’acteurs du marché privé. » 

L’affaire est complexe et dépasse la simple protection des données. Parmi les nœuds gordiens à trancher : l’accès à une même information, transparente pour toutes et tous. Au niveau politique, le think thank Reatch a publié un livre blanc en mars 2024. Cette étude met en évidence comment les moteurs de recherche web et les chatbots sont de plus en plus utilisés par les citoyen·ne·s suisses pour s’informer. Or, ces systèmes (Google en tête) personnalisent les résultats en fonction de critères opaques.

Au niveau académique, la question se pose en termes d’intégrité scientifique : comment enseigner et évaluer à l’ère des générateurs de contenus ? Les institutions académiques ont commencé à se positionner. Swissuniversities plaide pour une adoption pragmatique, tant au niveau de la recherche que de l’enseignement. L’UNIGE a édicté des principes d’utilisation et élaboré un guide en ligne. Et le DSI Strategy Lab de l’Université de Zurich a, lui aussi, émis une prise de position avec une série de recommandations concernant les étudiant·e·s, les enseignant·e·s ainsi que les chercheuses et chercheurs.

Vers une IA transparente et open source ?

L’initiative Swiss AI lancée par les deux écoles polytechniques fédérales vise à garantir la souveraineté numérique de la Suisse et la liberté de recherche. L’objectif est de développer et d’entraîner de nouveaux grands modèles de langage (ou LLM) qui soient transparents, fournissent des résultats compréhensibles et garantissent le respect du cadre légal ainsi que des normes éthiques et scientifiques. « Nous devons être à la pointe de l’IA, plutôt que de la laisser à quelques multinationales », déclarait Christan Wolfrum, vice-président de l’EPFZ pour la recherche, dans un communiqué.

Qu’on parle des outils d’IA générative ou de superintelligence artificielle, l’étape suivante, l’enjeu central et existentiel, est de s’assurer que la technologie d’IA ne devienne pas un outil d’aliénation et de contrôle potentiel, voire, dans les scénarios les plus dystopiques, létale pour l’humanité. En mai 2023 déjà, les cofondateurs d’OpenAI Sam Altman, Greg Brockman et Ilya Sutskever estimaient « concevable que, dans les dix prochaines années, les systèmes d’IA dépassent le niveau de compétence des experts dans la plupart des domaines ».[1] Ils en appelaient à la nécessité de créer une autorité de régulation internationale pour gérer les risques potentiels. António Guterres, secrétaire général de l’ONU, déclarait en juillet 2023, lors d’un débat au Conseil de sécurité : « Les dysfonctionnements des systèmes d’IA sont un autre sujet de préoccupation majeur. Et l’interaction entre l’IA et les armes nucléaires, la biotechnologie, la neurotechnologie et la robotique est très alarmante. L’IA générative présente un énorme potentiel de faire le bien et le mal à grande échelle. Ses créateurs ont eux-mêmes mis en garde contre des risques bien plus importants, potentiellement catastrophiques et existentiels, qui se profilent à l’horizon. »2

Depuis, les choses ont un peu bougé. En mars 2024, l’Assemblée européenne a adopté une législation contraignante – une première mondiale. Bien qu’encore floue dans son application, elle est censée mettre quelques garde-fous en matière de protection des données, de droit d’auteur et de sécurité. L’ONU a également adopté une première résolution en vue de l’établissement de règles internationales claires en matière de développement d’IA, qui respecte les droits humains (tout en excluant le domaine militaire).

« L’âge du capitalisme de surveillance »3 diagnostiqué par Shoshanna Zuboff ou le scénario d’une société à la George Orwell ne sont pas une fatalité. Dans les sociétés démocratiques, c’est avant tout une question de gouvernance politique et de cadre légal. Mais le temps presse. Par ailleurs, il serait judicieux – sur une planète aux ressources limitées –  de se poser la question du pourquoi avant le développement de la technè de quelles innovations avons-nous besoin ?Pour citer Michael Schaepman, le recteur de l’Université de Zurich : « Il est temps de reparler des humanités»4

 

Références

[1] « Governance of superintelligence », in OpenAI blog, 22.05.2023 :
https://openai.com/index/governance-of-superintelligence/ (consulté le 19.08.2024)

[2] Voir à ce propos aussi : Programme des Nations Unies pour le développement (2022), Rapport sur le Développement humain 2021/2022 : Temps incertains, vies bouleversées : façonner notre avenir dans un monde en mutation, New York.

[3] Granjon, Fabien (2021) : Sur L’Âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir de Shoshana Zuboff, in Questions de communication, (n° 40) (2), p. 455-472. 
https://doi.org/10.4000/questionsdecommunication.27359 

[4] Mariani, Carlo et al.: Es ist Zeit, wieder Humanities zu sagen, in Zürcher Studierendenzeitung, 23.09.2023: 
https://www.zsonline.ch/2023/09/28/es-ist-zeit-wieder-humanities-zu-sagen (consulté le 15.08.2024)

Open Access

Cette publication est en accès libre, sous licence CreativeCommons CC BY-SA 4.0.

Disclaimer

Les articles du blog peuvent contenir des opinions exprimées par les auteur·e·s et ne représentent pas nécessairement la position de l'employeur respectif ou de l'ASSH.