Nouveaux Cahiers du socialisme
Faire de la politique autrement, ici et maintenant...

L’intelligence artificielle et la fonction publique : clarification des enjeux

L’arrivée de l’intelligence artificielle (IA) générative auprès du public ces dernières années a augmenté la tenue de discours polarisants où elle est parfois présentée comme un risque existentiel ou comme une technologie révolutionnaire. Or, il y a un écart flagrant entre ce type de discours et l’usage actuel de l’IA au sein de la fonction publique, voire en général. Loin d’une superintelligence, les applications actuelles sur les sites Web gouvernementaux prennent plutôt la forme de « robots conversationnels », d’algorithmes de détection de fraudes, d’automatisation de la prestation de services ou encore d’assistance au diagnostic médical[1]. Loin d’une révolution sociale, l’IA perpétue plutôt le statu quo, c’est-à-dire la marginalisation et la discrimination de certaines populations selon des critères de genre, de religion, d’ethnicité ou de classe socioéconomique.
En déployant ces algorithmes dans l’appareil administratif, l’État cherche à accroitre la productivité, à diminuer les coûts et à améliorer la qualité des services fournis, tout en réduisant les biais et en personnalisant les services. Cependant, l’intégration de l’IA dans l’administration publique québécoise demeure pour le moment limitée et peu transparente. Les gains envisagés avec l’aide de l’IA, quant à eux, s’articulent principalement du côté de la répartition du temps des fonctionnaires, en concentrant leur travail sur des tâches plus « humaines » et moins « mécaniques ». Toutefois, l’automatisation ne se limite pas à une simple redistribution du temps de travail, mais met en œuvre plutôt une transformation substantielle des responsabilités et des dynamiques du travail[2]. Les conceptrices et concepteurs des fonctionnalités des algorithmes occupent une place de plus en plus importante tandis que les autres employé·es se voient davantage relégués à des rôles de soutien, par exemple, en nettoyant les données entrantes ou en vérifiant les données sortantes[3]. En ce sens, bien loin d’affranchir les travailleuses et travailleurs des tâches fastidieuses, l’IA ancre davantage l’aspect répétitif du travail administratif. Cette transition s’inscrit dans une restructuration plus vaste des relations socioéconomiques du « capital algorithmique », où l’accumulation, le contrôle et la valorisation des données massives reconfigurent les dynamiques de pouvoir et les rapports sociaux vers une nouvelle économie politique[4].
Dans un tel contexte, il y a un véritable risque de tomber dans un « solutionnisme technologique[5] » qui réduit des problèmes sociaux et politiques complexes, comme le décrochage scolaire ou l’engorgement du système de santé, à des enjeux pouvant se régler à l’aide d’une application ou d’une technologie. Alors que les écoles publiques sont en piètre état, qu’une pénurie de professeur·es et une précarité généralisée persistent, le gouvernement se réjouit du potentiel de l’IA pour personnaliser l’apprentissage et repérer les élèves à risque de décrochage en temps réel, et il y investit plusieurs millions[6]. Ce genre de discours n’est pas sans conséquence. Il reflète la réorientation des valeurs ainsi que celle des fonds publics vers une « économie de la promesse[7] » profondément spéculative dont les retombées économiques sont principalement captées par les entreprises du secteur privé[8].
Outre ce premier piège, plusieurs enjeux découlent directement de l’adoption de l’IA dans les différentes sphères de la fonction publique, soit l’opacité des outils de prise de décision, l’aggravation des inégalités sociales et l’absence d’imputabilité.
L’enjeu de l’opacité
Pour des raisons techniques, les processus décisionnels algorithmiques sont difficiles, voire impossibles à établir. Cette opacité constitue, en quelque sorte, un problème dès le départ : comment évaluer qu’une « boite noire » se conforme aux normes et principes d’équité exigés de la fonction publique ? Comment garantir une reddition de comptes ? En ce sens, des enjeux légaux et techniques découlent de l’utilisation de l’IA et entrainent déjà des conséquences importantes.
L’opacité des outils décisionnels automatisés est problématique lorsque leur fonctionnement, voire leur usage, sont sous le sceau du secret commercial ou d’autres barrières légales à l’accès à l’information. Le développement de technologies d’IA par le personnel de l’administration publique est rarement envisagé en raison des coûts initiaux élevés et du manque d’expertise technique. C’est donc largement par appels d’offres ou par l’acquisition de systèmes clés en main que les divers ordres de gouvernement et les municipalités « modernisent » leurs opérations. L’approvisionnement en outils algorithmiques dont le fonctionnement est protégé par le secret commercial est maintenant devenu pratique courante[9]. Pourtant, l’incapacité de présenter le raisonnement derrière une décision générée par un algorithme pose des problèmes de conformité aux cadres normatifs de non-discrimination et d’imputabilité. Certains y voient la source d’une crise de la légitimité du rapport entre le gouvernement et les citoyens et citoyennes[10].
Dans le système judiciaire américain, les applications de l’IA soulèvent des questions sur le droit à un procès juste et équitable. Les juges utilisent couramment des outils algorithmiques pour appuyer leur verdict, mais ils le font à l’aveugle, en quelque sorte. Le logiciel intitulé COMPAS est peut-être le plus connu de ces outils. La Cour suprême du Wisconsin, dans State v. Loomis[11], a statué que l’utilisation de COMPAS sans en divulguer le fonctionnement ni aux juges ni aux appelants n’enfreignait pas le droit à un procès juste et équitable. À l’inverse, dans Michael T. v. Crouch[12], le tribunal a jugé que l’absence de standards vérifiables pour l’allocation de prestations médicales générées automatiquement par des algorithmes représentait de sérieux risques pour le droit à un procès juste et équitable. Ainsi, les personnes affectées ont vu leurs prestations médicales réinstaurées après avoir été coupées subitement par un algorithme dont aucun moyen ne permettait d’établir comment il calculait les indemnités.
De même, les Pays-Bas ont suspendu en 2020 le système de détection de fraudes SyRI dans les prestations sociales parce qu’il contrevenait aux droits de la personne. Les personnes touchées, toutes issues de quartiers défavorisés, n’étaient pas informées du fait que leur profil fiscal avait été trié et jugé frauduleux uniquement par un algorithme. Le fonctionnement de l’outil, quant à lui, était opaque et invérifiable autant pour le tribunal que pour le public[13]. Pour cette raison, l’utilisation de SyRI a été déclarée contraire à la loi. Le gouvernement australien a de son côté déployé Robodebt, un système automatisé de détection de fraudes. Banni en 2019, cet algorithme avait causé des dommages affectant, cette fois-ci, des centaines de milliers de prestataires qui se trouvaient contraints à contester des dettes qui leur avaient été attribuées par erreur[14].
Les administrations publiques canadienne et québécoise utilisent également ce type d’outils. À l’échelle fédérale, un système automatise le tri des demandes de permis de travail et fait progresser celles qui sont admissibles, tandis que les autres demeurent sous la responsabilité des agents de l’immigration[15]. Au Québec, l’utilisation du Système de soutien à la pratique (SSP) comme serveur mandataire soulève des préoccupations qui se sont accentuées en réaction aux « incohérences » produites par l’outil dans un dossier où un enfant a perdu la vie[16]. Ce système prédit la sévérité du risque que court un enfant dans son milieu à partir d’un formulaire de questions à choix multiples. Dans son rapport, Me Géhane Kamel insiste sur le fait que les évaluations générées par le SSP « ne doivent pas se substituer au jugement professionnel des intervenants ». Elle souligne d’ailleurs l’importance du contexte dans lequel se découlent des événements : pénurie de main-d’œuvre, budgets « faméliques » et charge de travail démesurée[17].
L’opacité des outils algorithmiques de prise de décision utilisés par des juges, des administrateurs et d’autres employé·es de l’État est un thème récurrent dans la littérature qui se penche sur l’intégration de l’IA à l’administration publique. Le besoin de transparence à cet égard est évident ; la loi et les directives administratives peuvent jouer ce rôle.
Dans l’État de Washington, le corps législatif a déjà reconnu cette problématique. Déposé en 2019 et désormais sous révision par le Sénat, le projet de loi SB 5356, 2023-2024[18], interdit les clauses de non-divulgation et autres obstacles à la transparence dans les contrats d’acquisition de systèmes décisionnels algorithmiques. En outre, tous les systèmes acquis ou développés au sein de la fonction publique doivent être inventoriés. L’inventaire enregistre des informations sur les données, l’objectif, la capacité générale du système, ses impacts et ses limitations, les évaluations de biais potentiels et les facteurs déterminant son déploiement (où, quand, et comment). Ce genre de descriptif doit être clair pour les utilisateurs et utilisatrices indépendamment de leur capacité à connaitre le langage du code.
Outre les obstacles légaux, les applications de l’IA peuvent être opaques aussi pour des raisons techniques. Même avec le code source, auditer un algorithme et expliquer son fonctionnement constituent des tâches laborieuses pour les experts, surtout en ce qui concerne l’apprentissage automatique, car il présente divers degrés d’opacité[19]. Si Robodebt était problématique, c’est en partie parce que l’outil était trop simple pour une tâche nécessitant beaucoup de nuance[20]. En revanche, une complexité accrue, bien que parfois préférable, compromet la capacité d’interprétation du fonctionnement d’un système. Cette tension, désignée comme l’enjeu de l’« explicabilité », est complexifiée par l’évolution d’un système au fil du temps. À titre d’exemple, un outil de priorisation des ressources municipales entre divers quartiers tel le logiciel MVA[21] doit tenir compte du phénomène d’embourgeoisement observé avec le temps. Afin d’éviter qu’il soit désuet ou pire, nuisible, il faut effectuer une mise à jour périodique des critères décisionnels encodés dans l’outil, ce qui complique l’encadrement par audits externes[22]. Il en va de même sur le plan géographique, où la non-prise en compte des différences socioculturelles peut entrainer des conséquences néfastes[23].
Au vu de ces limites, des mesures de transparence doivent surtout éclaircir le contexte sociotechnique dans lequel ces systèmes sont conçus, déployés et entretenus. Contrairement aux détails techniques, cette information est connue du grand public et permet des échanges démocratiques sur des cas d’utilisation appropriée et inappropriée d’outils algorithmiques. Après tout, ces débats sont essentiels puisque les concepteurs de systèmes doivent parfois trouver un compromis entre des objectifs contradictoires tels que l’équité et l’efficacité[24].
L’enjeu de la discrimination et de l’injustice
Les spécialistes des données sont sollicités pour traduire la prise de décisions administratives en problèmes d’optimisation. L’évaluation de la vulnérabilité d’une personne en situation d’itinérance avec l’outil VI-SPDAT[25], par exemple, se réduit à une prédiction à partir de données telles que le nombre d’hospitalisations, la prescription de médicaments et l’identité de genre. L’« art » du métier consiste à trouver et à accumuler les données dotées du plus grand potentiel prédictif, mais celles-ci comportent également un potentiel discriminatoire. Depuis quelques années, un nombre grandissant d’ouvrages documente et critique les formes de discrimination et d’injustice diffusées par les applications émergentes de l’IA[26].
Aux États-Unis, les communautés qui ont été historiquement davantage surveillées sont aujourd’hui victimes de profilage par des systèmes algorithmiques entrainés à partir de données reflétant le racisme systémique de l’histoire criminelle. Dans un tel contexte, les effets discriminatoires ne sont pas une conséquence du dysfonctionnement de l’algorithme, mais plutôt un reflet d’inégalités enracinées dans les rapports sociaux. Même certaines caractéristiques absentes telles que le sexe, l’âge, l’ethnicité, la religion peuvent être inférés par l’algorithme de façon insidieuse à partir de données comme le code postal, l’emploi ou le prénom[27]. En ce sens, la proposition selon laquelle les algorithmes sont plus neutres et objectifs que les humains est insoutenable puisque les données utilisées par un algorithme sont elles-mêmes biaisées.
En outre, des effets discriminatoires peuvent naitre de l’accumulation de données déséquilibrées. Lorsque l’ensemble des données d’entrainement représente de façon disproportionnée certains groupes à cause d’un manque d’entrées ou d’un surplus, le modèle reproduira ces biais. Par exemple, certains systèmes de reconnaissance faciale actuellement utilisés par la police sont moins précis pour identifier les personnes racisées, car leurs visages sont insuffisamment représentés dans l’ensemble des données et, de ce fait, ils dévient de la norme du visage blanc[28]. Porcha Woodruff et Rendal Reid, détenus à tort par la police sous prétexte d’avoir été identifiés par un système de reconnaissance faciale, sont deux cas d’une liste de plus en plus longue de personnes profilées à tort par le biais de ces technologies[29].
De même, une collection d’outils d’évaluation du risque de récidive, conçus par et pour les personnes blanches, sont employés dans le cas de détenus autochtones au Canada. Dans Ewert c. Canada, la Cour suprême du Canada a statué que le Service correctionnel du Canada (SCC) :
n’avait pas pris les mesures raisonnables appropriées pour s’assurer que ses outils produisaient des résultats exacts et complets à l’égard des détenus autochtones […] Le SCC savait que les outils suscitaient des craintes, mais il a continué à s’en servir malgré tout[30].
Ainsi, les effets discriminatoires de l’IA se réalisent autant par l’exclusion des personnes racisées de l’ensemble des données que par leur inclusion.
L’enjeu de l’imputabilité
Afin de prévenir le déploiement d’algorithmes opaques et discriminatoires, l’encadrement responsable de l’IA ne peut pas se limiter aux déclarations de valeurs et de principes qui, outre le scepticisme à propos de leur efficacité, effectuent une sorte de « lavage éthique ». Les mécanismes d’imputabilité traditionnels, où une action répréhensible est attribuée à son auteur ou son autrice, sont défaillants lorsque des systèmes algorithmiques sont en cause. En ce qui concerne la fonction publique, il faut se tourner vers le droit administratif.
D’abord, les décisions administratives sont jugées selon leur raisonnabilité. Il s’agit de la norme de contrôle appliquée par défaut pour évaluer la validité d’une décision prise par une institution publique[31]. C’est, en quelque sorte, le cœur des mécanismes de protection du citoyen et de la citoyenne. À l’inverse, une décision est jugée déraisonnable s’il y a un « manque de logique interne dans le raisonnement » ou encore un « manque de justification[32] ». Toutefois, comme l’illustre Michael T. v. Crouch, présenter une explication du procédé logique d’un algorithme s’avère parfois impossible[33].
Les outils algorithmiques utilisés en soutien à la décision, quant à eux, complexifient le problème d’imputabilité. State v. Loomis démontre que malgré le besoin de systèmes dont le fonctionnement est intelligible, on peut contourner ceux-ci lorsqu’ils produisent des recommandations plutôt que des décisions. Outre les biais cognitifs relatifs à la fiabilité des algorithmes, ces derniers « réduisent le sentiment de contrôle, de responsabilité et d’agentivité morale chez les opérateurs humains[34] ». Les mécanismes d’imputabilité actuels attribuent le blâme aux personnes et non aux outils d’aide à la décision sans tenir compte des nouvelles dynamiques de pouvoir dans les environnements humain-IA. Or, le pouvoir décisionnel des fonctionnaires peut s’avérer négligeable, en particulier dans un contexte de prise de décision rapide, de manque de formation et de charge de travail démesurée[35]. Ainsi, tel que le souligne Wagner, « les gens ne peuvent pas être blâmés ou tenus responsables uniquement de leur pouvoir discrétionnaire : celui des systèmes techniques doit aussi être pris en compte[36] ». Dans les environnements humain-IA, des mécanismes de justice réparatrice doivent problématiser les dynamiques du travail, en dégager les enjeux et prescrire un changement des pratiques institutionnelles plutôt que d’attribuer le blâme et les sanctions aux individus.
Pour ce faire, l’encadrement des algorithmes doit s’effectuer sur plusieurs plans : à l’échelle de l’instrument, certes, mais également à l’échelle du contexte sociotechnique et de la société[37]. Les premières tentatives visant à assurer une utilisation responsable des algorithmes étaient axées sur la transparence des outils algorithmiques, ce qui est parfois irréalisable et jamais suffisant[38]. On doit établir des normes éthiques et des règles claires pour pallier les limites inhérentes à ces technologies, en commençant par une évaluation de la nécessité et des impacts d’un système d’IA pour une tâche donnée. Le corps législatif, quant à lui, doit mettre l’accent sur la création de nouveaux droits et obligations[39] en matière d’approvisionnement (interdiction de clauses de non-divulgation), de documentation ou encore le droit à une explication, le droit à un examen humain et la divulgation publique des objectifs, des risques et des répercussions de ces systèmes. De plus, les applications à haut risque, comme le SSP décrit précédemment, devraient se conformer à des normes plus strictes, s’accompagner de dossiers plus détaillés, être soumises à des examens plus fréquents et à des conséquences plus importantes en cas de négligence ou d’évitement.
Face à ces enjeux, le grand public joue un rôle clé dans le développement des applications de l’IA. Les pressions du public et les actions judiciaires collectives ont largement permis de retirer et de restreindre des systèmes opaques et discriminatoires tels que COMPAS, SyRI, Robodebt et d’autres. L’intégration des applications de l’IA s’inscrit dans la longue histoire de la technocratisation de l’État, où les techniques scientifiques sont valorisées au détriment de l’autonomisation des personnes et des qualités humaines qui sont pourtant essentielles à l’administration des services de soutien social. Devant les promesses du gouvernement québécois, on doit instaurer davantage d’espaces de discussions et de débats démocratiques sur la transition numérique des pouvoirs publics. Autrement, ces technologies continueront à opprimer plutôt qu’à rendre autonome.
Par Jérémi Léveillé, bachelier en arts libéraux et en informatique
- Gouvernement du Québec, Stratégie d’intégration de l’intelligence artificielle dans l’administration publique 2021-2026, juin 2021. ↑
- Mark Bovens et Stavros Zouridis, « From street-level to system-level bureaucracies : how information and communication technology is transforming administrative discretion and constitutional control », Public Administration Review, vol. 62, n° 2, 2002. ↑
- Jenna Burrell et Marion Fourcade, « The society of algorithms », Annual Review of Sociology, vol. 47, 2021. ↑
- Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023. ↑
- Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014. ↑
- Conseil de l’innovation du Québec, Le potentiel et les exigences de l’adoption de l’IA dans l’administration publique, Québec, Gouvernement du Québec, octobre 2023, p. 15 ; Hélène Gaudreau et Marie-Michèle Lemieux, L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux, Québec, Conseil supérieur de l’éducation, 2020. ↑
- Maxime Colleret et Mahdi Khelfaoui, « D’une révolution avortée à une autre ? Les politiques québécoises en nanotechnologies et en IA au prisme de l’économie de la promesse », Recherches sociographiques, vol. 61, n° 1, 2020. ↑
- Ana Brandusescu, Politique et financement de l’intelligence artificielle au Canada : investissements publics, intérêts privés, Montréal, Centre de recherches interdisciplinaires en études montréalaises, Université McGill, mars 2021, p. 37-40 ; Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, novembre 2023. ↑
- Hannah Bloch-Wehba, « Access to algorithms », Fordham Law Review, vol. 88, n° 4, 2020, p. 1272. ↑
- Ryan Calo et Danielle Keats Citron, « The automated administrative state : a crisis of legitimacy », Emory Law Journal, vol. 70, n° 4, 2021. ↑
- State v. Loomis, 881 N.W.2d 749 (Wis 2016). ↑
- Michael T. v. Crouch, No. 2:15-CV-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018). ↑
- Christiaan Van Veen, Aux Pays-Bas, une décision judiciaire historique sur les États-providences numériques et les droits humains, Open Global Right, mars 2020. ↑
- Catherine Holmes, Report, Royal Commission into the Robodebt Scheme, Brisbane (Australie), juillet 2023, p. 331. ↑
- Immigration et citoyenneté Canada, Automatisation pour accélérer le traitement des permis de travail d’Expérience internationale Canada, Gouvernement du Canada, 7 novembre 2023. ↑
- Pasquale Turbide, « Un logiciel de la DPJ mis en cause dans la mort d’un enfant », Radio-Canada, 14 novembre 2019. ↑
- Me Géhane Kamel, Rapport d’enquête POUR la protection de LA VIE humaine concernant le décès de Thomas Audet, Québec, Bureau du coroner, février 2023. ↑
- Washington State Legislature, Loi concernant l’établissement de lignes directrices pour l’approvisionnement gouvernemental de systèmes de décision automatisés afin de protéger les consommateurs, améliorer la transparence, et créer plus de prévisibilité du marché, SB 5356 – 2023-24, janvier 2023. ↑
- Jenna Burrell, « How the machine “thinks” : understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, n° 1, 2016 ; Joshua A. Kroll, Joanna Huey, Solon Barocas, Edward W. Felten, Joel R. Reidenberg, David G. Robinson, Harlan Yu, « Accountable algorithms », University of Pennsylvania Law Review, vol. 165, n° 3, 2017, p. 633-706. ↑
- Catherine Holmes, op. cit., p. iii. ↑
- Conseil jeunesse de Montréal, Avis sur l’utilisation de systèmes de décision automatisée par la Ville de Montréal. Assurer une gouvernance responsable, juste et inclusive, Montréal, février 2021, p. 33. ↑
- Mike Ananny et Kate Crawford, « Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability », New Media & Society, vol. 20, n° 3, 2018, p. 982. ↑
- Andrew D. Selbst, Danah Boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, Janet Vertesi, « Fairness and abstraction in sociotechnical systems », Proceedings of the Conference on Fairness, Accountability, and Transparency, 2019, p. 61. ↑
- Teresa Scassa, « Administrative law and the governance of automated decision-making. A critical look at Canada’s Directive on automated decision making », U.B.C. Law Review, vol. 54, n° 1, 2021, p. 262-265.↑
- Conseil jeunesse de Montréal, op. cit., p. 32. ↑
- Virginia Eubanks, Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, St. Martin’s Press, 2018 ; Saifya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, NYU Press, 2018 ; Ruha Benjamin, Race After Technology, Medford, Polity, 2019 ; Joy Buolamwini, Unmasking AI, New York, Penguin Random House, 2023 ; Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Portland, Broadway Books, 2017. ↑
- Kroll et al., « Accountable algorithms », op. cit., p. 656. ↑
- Buolamwini, op. cit. ↑
- Kashmir Hill, « Eight months pregnant and arrested after false facial recognition match », The New York Times, 6 août 2023 ; Kashmir Hill et Ryan Mac, « Thousands of dollars for something I didn’t do », The New York Times, 31 mars 2023. ↑
- Cour suprême du Canada, Ewert c. Canada (Service correctionnel), 13 juin 2018 et <https://scc-csc.lexum.com/scc-csc/scc-csc/fr/item/17133/index.do>. ↑
- Gouvernement du Canada, Processus décisionnel – Norme de contrôle et marche à suivre pour prendre une décision raisonnable, 12 juillet 2022 ; Cour suprême du Canada, Canada (ministre de la Citoyenneté et de l’Immigration) c. Vavilov, 19 décembre 2019, CSC 65. ↑
- Jurisource, Normes de contrôle (schématisé), 2020. ↑
- Michael T. v. Crouch, Action civile No. 2:15-cv-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018). ↑
- Ben Green, « The flaws of policies requiring human oversight of government algorithms », Computer Law & Security Review, vol. 45, 2022, p. 7. Notre traduction. ↑
- Ben Wagner, « Liable, but not in control ? Ensuring meaningful human agency in automated decision-making systems », Policy & Internet, vol. 11, n° 1, 2019, p. 104-122. ↑
- Ibid., p. 16. Notre traduction. ↑
- Joshua A. Kroll, « Accountability in computer systems », dans Markus D. Dubber, Frank Pasquale et Sunit Das (dir.), The Oxford Handbook of Ethics of AI, Oxford, Oxford University Press, 2020, p. 181-196 ; Micheal Veale et Irina Brass, « Administration by algorithm ? Public management meets public sector machine learning », dans Karen Yeung et Martin Lodge (dir.), Algorithmic Regulation, Oxford, Oxford University Press, 2019. ↑
- Ananny et Crawford, op. cit., p. 985. ↑
- Veale et Brass, op. cit. ↑

L’intelligence artificielle comme lieu de lutte du syndicalisme enseignant

Pour plusieurs, y compris pour les enseignantes et les enseignants, il n’y a pas longtemps, l’intelligence artificielle (IA) était synonyme de machines ou de robots déréglés qui menacent l’humanité dans les films de science-fiction tels La Matrice ou Terminator. Il n’est donc pas étonnant que le lancement du robot conversationnel ChatGPT à la fin de la session de l’automne 2022 ait eu l’effet d’une bombe dans le milieu de l’enseignement supérieur. Certaines et certains y voient une innovation prometteuse alors que d’autres soulèvent des inquiétudes, notamment sur la facilité accrue de plagier ou de tricher. Si ChatGPT est l’application d’intelligence artificielle générative la plus publicisée, elle n’est toutefois pas la seule, loin de là. Depuis quelques années, plusieurs établissements d’enseignement ont décidé de recourir à des systèmes d’intelligence artificielle (SIA) aux fonctions diverses. Bien que l’IA soit intégrée à une variété d’outils présents dans nos habitudes quotidiennes depuis un certain temps déjà, il est primordial de mener une réflexion sur l’usage qu’on devrait en faire en éducation, et plus largement sur son utilité pour le mode de fonctionnement et les objectifs de notre système éducatif, ainsi que sur les limites à y imposer.
Depuis plusieurs années, la FNEEQ-CSN développe une réflexion critique sur le recours aux technologies numériques au sein du système de l’éducation. Celles-ci sont omniprésentes et souvent présentées comme une solution miracle et inévitables face aux problèmes qui affectent l’enseignement[3]. On pense notamment au développement de l’enseignement à distance[4] que la pandémie a accéléré, à l’utilisation des ordinateurs, des tablettes ou encore des controversés tableaux blancs interactifs promus par le premier ministre libéral Jean Charest. À notre avis, comme syndicalistes enseignantes et enseignants, il est fondamental de se poser, en amont, des questions sur le recours aux technologies numériques en général et à l’IA en particulier. 1) Permettent-elles de bonifier la relation pédagogique ? 2) Constituent-elles l’unique et la meilleure option disponible ? 3) Leur utilisation peut-elle être éthique et responsable ? Si oui, dans quelle(s) situation(s) ? 4) À qui profitent-elles vraiment et quels sont les véritables promoteurs de l’IA ? 5) Comment agir pour que l’IA puisse être au service du développement d’une société humaine équitable, diversifiée, inclusive, créative, résiliente, etc. ?
Consciente de l’intérêt présent pour ces technologies, la FNEEQ et son comité école et société[5] ont développé une posture « technocritique », évitant ainsi le piège de la rhétorique polarisante « technophiles » versus « technophobes », afin de pouvoir appréhender ce phénomène majeur de façon rigoureuse. En effet, même si ce dernier peut fournir des outils utiles pour certains besoins particuliers, par exemple un logiciel destiné à pallier un handicap, il fait peser des menaces sérieuses sur la profession enseignante et sur la relation pédagogique : ainsi il peut favoriser la fragmentation de la tâche, l’individualisation à outrance de l’enseignement, l’augmentation des inégalités et la surcharge de travail, liée entre autres à l’adaptation de l’enseignement. À terme, il peut produire plus de précarité et contribuer à la déshumanisation du milieu de l’éducation.
Quelques exemples de l’usage de l’IA en éducation et en enseignement supérieur au Québec
C’est lors du conseil fédéral de la FNEEQ des 4, 5 et 6 mai 2022 que le comité école et société a été mandaté pour « documenter et […] développer une réflexion critique au sujet du recours à l’intelligence artificielle en éducation et en enseignement supérieur[6] ». Dans son rapport publié en mai 2023, le comité y recense entre autres certains usages de l’IA.
L’IA en classe
Le rapport[7] présente quatre formes d’utilisation de l’IA pour ce qui est de l’enseignement et de l’apprentissage proprement dits.
- Les systèmes tutoriels intelligents (STI) : ceux-ci proposent des tutoriels par étapes et personnalisés qui emploient le traçage des données produites par les étudiantes et les étudiants pour ajuster le niveau de difficulté en fonction de leurs forces et faiblesses.
- Les robots intelligents : on a recours à ces robots notamment auprès d’élèves qui ont des troubles ou des difficultés d’apprentissage ainsi que pour des élèves qui ne peuvent être en classe à cause d’un problème de santé ou pour des enfants en situation de crise humanitaire.
- Les agents d’apprentissage : certains robots ou fonctionnalités de l’IA sont utilisés notamment comme agents virtuels à qui l’élève enseigne les concepts à apprendre. Par exemple, en Suisse, des élèves enseignent à un robot comment écrire.
- Les assistants pédagogiques d’IA : l’évaluation automatique de l’écriture (EAE) est une forme d’assistant pédagogique qui propose une correction formative ou sommative des travaux écrits. L’EAE ne fait pas l’unanimité, car elle comporte de nombreux présupposés. Par exemple, elle récompense les phrases longues, mais qui n’ont pas nécessairement de sens, et n’évalue pas la créativité d’un texte.
Sélection, orientation et aide à la réussite – Soutien et accompagnement des étudiantes et étudiants
En plus des outils de nature pédagogique, d’autres applications de l’IA concernent la sélection, l’orientation, l’aide à la réussite tout comme le soutien individuel et l’accompagnement des étudiantes et des étudiants.
Le forum virtuel de la Fédération des cégeps, Données et intelligence artificielle. L’innovation au service de la réussite, tenu le 9 mars 2022, fut l’occasion de présenter diverses applications de l’IA dans l’administration scolaire québécoise. Par exemple, les données colligées des étudiantes et des étudiants peuvent être traitées par l’IA afin de prédire leur comportement individuel ou collectif. Les responsables des dossiers des élèves peuvent s’inspirer de ces pronostics pour guider leurs interventions. À l’aide d’un progiciel de gestion intégrée (PGI), constitué de la cote R, de l’âge et du code postal, on peut même tenter de prévoir le risque de décrochage, le nombre d’échecs, les notes finales ou la durée des études !
Citons quelques exemples d’outils déjà bien implantés dans nos établissements :
- ISA (Interface de suivi académique) : l’objectif de l’outil, dédié aux professionnel·les du réseau collégial, est d’évaluer les risques d’abandon scolaire à l’aide d’algorithmes conçus à partir des données personnelles des étudiantes et des étudiants (historique et résultats scolaires, ressources consultées, etc.);
- Vigo : est un robot conversationnel qui accompagne directement des élèves du secondaire[8] durant leur parcours scolaire ; il peut communiquer directement avec les élèves, leur poser des questions sur l’évolution de leurs résultats, leur prodiguer des encouragements et des conseils, notamment sur leurs méthodes d’études;
- DALIA : l’objectif de DALIA « est de rendre disponible aux établissements d’enseignement collégial un outil d’analyse prédictive basé sur l’intelligence artificielle (IA) afin de mieux accompagner les étudiantes et étudiants dans leur réussite scolaire[9] ».
Risques et dérives potentielles de l’IA
Le comité école et société a identifié plusieurs risques et dérives potentielles du recours sans contraintes à l’intelligence artificielle.
Protection des renseignements personnels, collecte des données et biais
L’intelligence artificielle repose sur un recours aux algorithmes et sur la collecte massive de données, très souvent personnelles. C’est à partir de celles-ci que les systèmes d’intelligence artificielle « apprennent ». La question de la qualité de l’origine des données utilisées est alors fondamentale. On y réfère dans le milieu par l’expression « garbage in, garbage out » : « Si les données initiales sont erronées, les résultats le seront tout autant[10] ». Or, les SIA et leurs propriétaires offrent peu de transparence au public ou à l’État afin de pouvoir valider et contrôler les différents types de biais.
La discrimination algorithmique
Des cas répertoriés de « discrimination algorithmique[11] » sont particulièrement troublants et touchent tant les SIA de recrutement (de personnel, par exemple) et l’étiquetage (identification à l’aide de mots clés du contenu d’un document ou d’une image) que les propos diffamatoires et l’incitation à la haine. Ainsi, plusieurs cas de discrimination visant les femmes, les personnes racisées ou de la communauté LGBTQ+ ont été rapportés. En fait, les SIA reproduisent les biais et stéréotypes véhiculés par les humains. Différentes formes de profilage découlent également de l’utilisation de ces systèmes car la discrimination reproduite par les algorithmes est directement liée à la question fondamentale du pouvoir. Or l’industrie de la technologie est essentiellement sous l’emprise d’un groupe somme toute assez restreint de personnes composé d’hommes blancs fortunés.
Respect de la propriété intellectuelle
Le respect du droit d’auteur ou d’autrice constitue également un enjeu important. Les dispositions législatives actuelles sont trop laxistes et ne permettent pas de protéger adéquatement ce droit. Cela soulève la question majeure que représentent le plagiat et la tricherie. Si on transpose cette problématique au contexte scolaire, on peut considérer que l’étudiante ou l’étudiant qui utilise un robot conversationnel dans le cadre d’une évaluation n’est pas l’autrice ou l’auteur du contenu généré, qu’il s’agit d’un cas de tricherie au même titre que tous les autres cas de fraude intellectuelle, à moins que l’utilisation d’une IA ait été autorisée dans le cadre de l’évaluation. Quoi qu’il en soit, dans la mesure où l’une des missions premières de l’éducation est d’amener l’élève et l’étudiante à développer sa pensée critique, lui permettre de déléguer son travail intellectuel à un robot relève d’un non-sens. Notons par ailleurs qu’il est extrêmement difficile et fastidieux de détecter et de prouver les cas de plagiat comme cela a été souligné dans un reportage diffusé en juin dernier sur ICI Mauricie-Centre-du-Québec[12].
IA et recherche
L’une des craintes les plus importantes est que les SIA accentuent la course à la « productivité scientifique » et le risque de fraude. Le journaliste scientifique Philippe Robitaille-Grou rapporte que la production d’articles scientifiques falsifiés constitue une véritable industrie dopée par l’utilisation de plus en plus répandue de l’IA[13]. Ces usines à articles vendent des publications avec des résultats inventés ou modifiés pour quelques centaines de dollars à des chercheurs et chercheuses dont la reconnaissance scientifique et le financement dépendent du nombre de publications à leur nom.
Dans ce contexte, on peut se poser de sérieuses questions sur le « savoir » [re]produit par les SIA. Quelles sont les sources utilisées ? Quelles sont les réflexions épistémologiques ? Quels sont les cadres théoriques ? Sur la base des études consultées, les risques d’une reproduction des savoirs dominants sont gigantesques. Ajoutons à cela que, selon les informations disponibles, la moitié des sources d’une plateforme comme ChatGPT est constituée de références anglophones; seulement 5 % sont en français[14]. Une menace quant à la diversité culturelle est avérée.
Quoi faire ? Quel encadrement ?
Le Conseil fédéral de la FNEEQ a adopté une série de recommandations[15] sur l’intelligence artificielle au cœur desquelles figure la recommandation d’un moratoire, suggéré par ailleurs par plusieurs acteurs clés de cette industrie.
Des balises rigoureuses doivent impérativement être mises de l’avant afin de prévenir les dérives identifiées et anticipées.
- La réflexion sur l’IA ne se dissocie pas de la réflexion globale sur l’omniprésence des technologies en éducation et dans la vie quotidienne, et ce, dans un contexte de technocapitalisme où l’IA demeure sous l’égide d’entreprises privées à but lucratif.
- Les SIA ne devraient pas être utilisés pour remplacer des personnes dans des contextes de relation d’aide ou de relation pédagogique, afin notamment de respecter la protection des renseignements personnels et du droit à la vie privée, lorsque des enjeux éthiques sont impliqués ou lorsque les actes posés sont susceptibles d’être réservés à des membres d’un ordre professionnel, par exemple une psychologue, un travailleur social…
- Des contraintes financières ou de recrutement de personnel ne devraient pas entrer en ligne de compte dans le choix d’un SIA.
- L’IA ne devrait pas être employée pour recruter ou évaluer des membres du personnel, des élèves, des étudiantes ou des étudiants.
- Tout potentiel recours aux SIA dans les établissements d’enseignement devrait faire l’objet d’une entente locale avec les syndicats, car ces systèmes affectent profondément les conditions de travail. L’implantation des SIA devrait être sous la supervision de comités paritaires auxquels participeraient notamment des enseignantes et des enseignants.
- De plus, sur le plan individuel, l’utilisation des SIA devrait toujours être optionnelle pour le corps enseignant et pour les étudiantes et étudiants. Elle devrait aussi toujours être le fruit d’un consentement éclairé.
Compte tenu du développement chaotique actuel des SIA, nous estimons que le principe de précaution, applicable en environnement, devrait aussi être adopté en regard des technologies. Ainsi, « en cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives[16] ». Bref, il devrait appartenir à tout organisme (école, cégep, université, ministère) et promoteur qui envisagent de recourir à un SIA d’en démontrer hors de tout doute raisonnable l’innocuité avant son implantation. En ce sens, les facteurs suivants devraient être considérés :
- la protection complète et effective des renseignements personnels des utilisateurs et des utilisatrices;
- la protection complète et effective du droit d’auteur et d’autrice;
- le contrôle contre les risques de discrimination algorithmique;
- les mesures de transparence des technologies utilisées et la redevabilité et l’imputabilité des propriétaires de celles-ci;
- les mesures de contrôle démocratique de la technologie en valorisant les technologies développées par des OBNL ou les logiciels libres.
Ces facteurs pourraient aussi faire l’objet d’un encadrement national et international comme l’Europe s’apprête à le faire[17]. À titre d’outil de contrôle, on peut s’inspirer de la suggestion de l’enseignante et philosophe Andréanne Sabourin-Laflamme, selon qui les SIA devraient systématiquement et régulièrement subir des audits algorithmiques, lesquels permettent notamment « d’évaluer, avec toutes sortes de processus techniques, par exemple, la représentativité des données, et de vérifier s’il y a présence d’effets discriminatoires[18] ».
Les actions accomplies
La FNEEQ-CSN a su profiter de différents forums pour faire valoir ses positions, y compris les médias, notamment à la mi-mai 2023 lors de la tenue de la Journée sur l’intelligence artificielle organisée par le ministère de l’Enseignement supérieur. Elle a aussi participé à deux consultations, l’une organisée par le Conseil supérieur de l’éducation, en collaboration avec la Commission de l’éthique en science et technologies, et l’autre par le Conseil de l’innovation du Québec menée à l’été 2023 [19]. Le slogan Vraie intelligence, vrai enseignement choisi par la FNEEQ en concordance avec ses positions a marqué la rentrée de l’automne 2023.
La FNEEQ envisage par ailleurs la tenue, au début de l’année 2024, d’un événement public sur l’intelligence artificielle selon un point de vue syndical. Malheureusement, les conférences et ateliers donnés dans les différents établissements adoptent généralement une approche jovialiste de l’IA et donnent peu ou pas de place aux points de vue davantage technocritiques. Il nous semble fondamental de diffuser auprès des enseignantes et des enseignants et de la population en général une information complémentaire qui aborde les enjeux du travail.
La réflexion et l’action doivent être élargies à l’ensemble du monde du travail afin de nouer des alliances. À cet effet, la FNEEQ a exposé ses travaux dans le cadre de la 12e Conférence sur l’enseignement supérieur de l’Internationale de l’éducation tenue à Mexico en octobre 2023. Nous travaillons aussi au sein de la CSN afin de développer un discours syndical intersectoriel sur cet enjeu majeur. Plusieurs professions risquent d’être affectées par le recours à l’IA, notamment dans la santé, comme le révélait récemment une étude de l’Institut de recherche et d’informations socioéconomiques (IRIS)[20].
Les recommandations du Conseil de l’innovation du Québec et du Conseil supérieur de l’éducation devraient être rendues publiques au début de l’année 2024. Espérons que ces organismes prendront en compte les craintes légitimes et les mises en garde bien documentées et exprimées par la société civile et par les organisations syndicales.
L’action de l’État sera aussi nécessaire que fondamentale. L’univers technologique, et l’IA en particulier, est accaparé et contrôlé par de grandes entreprises, notamment les GAFAM[21]. Nous connaissons également les impacts écologiques désastreux de ces technologies[22].
Le gouvernement canadien a déposé en 2022 un projet de loi visant à encadrer « la conception, le développement et le déploiement responsables des systèmes d’IA qui ont une incidence sur la vie des Canadiens[23] ». Or, plusieurs organisations et spécialistes jugent « que les dispositions actuelles du projet de loi ne protègent pas les droits et les libertés des citoyennes et citoyens canadiens contre les risques liés à l’évolution fulgurante de l’intelligence artificielle[24] ».
Devant la stagnation de l’étude de son projet de loi, le ministre François-Philippe Champagne a mis en place un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés[25]. Or, bon nombre d’entreprises rejettent l’idée de se conformer à un cadre réglementaire sous peine de voir le Canada perdre un avantage dans la course au développement de l’IA[26]. Bref, pour plusieurs de ces entreprises, la loi de la jungle devrait prévaloir en IA comme dans bien d’autres domaines tels que la santé, l’éducation…
Plus récemment, le conflit au sein de l’administration d’OpenAI, l’instigateur de ChatGPT, à propos du congédiement, puis de la réintégration de son PDG Sam Altman semble confirmer la victoire du camp de l’« innovation » face à celui de la précaution, et celle de la mainmise des grandes entreprises, comme Microsoft, sur le développement et le contrôle du produit[27]. D’ailleurs, Microsoft, au moment même où elle se lançait dans l’intégration de l’IA générative dans ses produits, dont la suite Office, licenciait son équipe responsable des enjeux d’éthique[28].
En conclusion, jusqu’à tout récemment, le développement des technologies pouvait faire craindre pour les emplois techniques et à qualifications moins élevées, notamment dans le secteur industriel (la robotisation). Or, le développement de l’IA menace maintenant plus de 300 millions d’emplois[29]. Les emplois de bureau et professionnels, surtout occupés par des femmes, seraient particulièrement menacés[30]. En 2021, la Commission de l’éthique en science et technologie affirmait que « la possibilité que le déploiement de l’IA dans le monde du travail contribue à l’augmentation des inégalités socioéconomiques et à la précarité économique des individus les plus défavorisés est bien réelle et doit être prise au sérieux par les décideurs publics[31] ». L’impact phénoménal de cette nouvelle technologie, que l’on doit analyser dans le contexte socioéconomique-écologique actuel, doit nous pousser comme organisation syndicale à sensibiliser nos membres sur ses risques et à militer pour un encadrement substantiel et évolutif de cette technologie par l’État et par les travailleuses et travailleurs. C’est un rappel que la technologie doit d’abord et avant tout servir l’être humain et non l’inverse.
Par Caroline Quesnel, présidente, et Benoît Lacoursière, secrétaire général et trésorier de la Fédération nationale des enseignantes et des enseignants du Québec (FNEEQ-CSN)[1]
- L’autrice et l’auteur tiennent à remercier les membres du comité école et société de la FNEEQ qui ont participé d’une manière ou d’une autre à la rédaction de ce texte : Ann Comtois, Stéphane Daniau, Sylvain Larose, Ricardo Penafiel et Isabelle Pontbriand. Nous remercions aussi Joanie Bolduc, employée de bureau de la FNEEQ pour la révision du texte.La FNEEQ est affiliée à la Confédération des syndicats nationaux (CSN) et représente 35 000 enseignantes et enseignants du primaire à l’université. Elle représente notamment environ 85 % du corps enseignant des cégeps et 80 % des chargé es de cours des universités, ce qui en fait l’organisation syndicale la plus représentative de l’enseignement supérieur. Ce texte se base principalement sur les travaux du comité école et société de la FNEEQ, particulièrement son rapport Intelligence artificielle en éducation. De la mission à la démission sociale : replaçons l’humain au cœur de l’enseignement, 2023.↑
- Comité école et société, Augmentation du nombre d’étudiantes et d’étudiants en situation de handicap, diversification des profils étudiants et impacts sur la tâche enseignante, Montréal, FNEEQ, 2022.↑
- Comité école et société, L’enseignement à distance : enjeux pédagogiques, syndicaux et sociétaux, Montréal, FNEEQ, 2019. ↑
- Composé de cinq militantes et militants élus, le comité a pour mandat principal de fournir des analyses qui enrichissent la réflexion des membres et des instances sur les problématiques actuelles ou nouvelles en éducation. ↑
- FNEEQ-CSN, Conseil fédéral – N° 3. Réunion ordinaire des 4, 5 et 6 mai 2022. Recommandations adoptées, p. 5. ↑
- Comité école et société, 2023, op. cit., partie 3. ↑
- La journaliste Patricia Rainville indiquait en 2019 que 20 000 élèves utilisaient Vigo et qu’on visait l’ensemble des élèves du réseau public, soit 800 000 élèves, en 2023. Patricia Rainville, « Vigo, l’assistant scolaire robotisé d’Optania, accompagne 20 000 élèves au Québec », Le Soleil, 13 septembre 2019.↑
- Regroupement des cégeps de Montréal, L’intelligence artificielle au bénéfice de la réussite scolaire, présentation au Forum de la Fédération des cégeps du Québec, 9 mars 2022. ↑
- Julie-Michèle Morin, « Qui a peur des algorithmes ? Regards (acérés) sur l’intelligence artificielle », Liberté, n° 329, hiver 2021, p. 43. ↑
- Notamment de sexisme, de racisme ou d’hétérosexisme. ↑
- Radio-Canada, « ChatGPT inquiète le milieu de l’enseignement à Trois-Rivières », Ici Mauricie-Centre-du-Québec, 1er juin 2023. ↑
- Philippe Robitaille-Grou, « Une industrie de fraudes scientifiques de masse », La Presse, 8 janvier 2023. ↑
- France-Culture, « ChatGPT, l’école doit-elle revoir sa copie ? », Être et savoir, baladodiffusion, Radio France, 13 février 2023. ↑
- FNEEQ-CSN, Conseil fédéral – N° 6. Réunion des 31 mai, 1er et 2 juin 2023. Recommandation adoptée. ↑
- ONU, Déclaration de Rio sur l’environnement et le développement, Rio de Janeiro, juin 1992. ↑
- Agence France-Presse, « L’Union européenne va pour la première fois encadrer l’intelligence artificielle », Le Devoir, 8 décembre 2023. ↑
- Chloé-Anne Touma, « Grand-messe de l’IA en enseignement supérieur : de belles paroles, mais des actions qui tardent à venir », CScience, 16 mai 2023. ↑
- FNEEQ-CSN, Avis de la FNEEQ-CSN transmis au Conseil supérieur de l’éducation dans le cadre de sa consultation sur l’utilisation des systèmes d’intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, 13 juin 2023.↑
- Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, novembre 2023. ↑
- NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft. ↑
- Karim Benessaieh, « Un impact environnemental monstre », La Presse, 3 juin 2023. ↑
- Gouvernement du Canada, Loi sur l’intelligence artificielle et les données. ↑
- La Presse canadienne, « Le projet de loi sur l’IA jugé inadéquat par des spécialistes », Radio-Canada, 26 septembre 2023. ↑
- Alain McKenna, « Au tour du Canada d’adopter un code de conduite volontaire pour l’IA », Le Devoir, 27 septembre 2023. ↑
- Radio-Canada, « L’industrie divisée quant au “code de conduite volontaire” d’Ottawa pour l’IA », 1er octobre 2023. ↑
- Kevin Roose, « l’IA appartient désormais aux capitalistes », La Presse+, 24 novembre 2023. ↑
- Bruno Guglielminetti, « Microsoft licencie les gens responsables de l’éthique de l’IA », Mon Carnet de l’actualité numérique, 14 mars 2023. ↑
- Agence QMI, « Jusqu’à 300 millions d’emplois menacés par l’intelligence artificielle », Le Journal de Québec, 28 mars 2023. ↑
- Claire Cain Miller et Courtney Cox, « Les emplois de bureau menacés par l’intelligence artificielle », La Presse, 30 août 2023. ↑
- Commission de l’éthique en science et technologie (CEST), Les effets de l’intelligence artificielle sur le monde du travail et la justice sociale : automatisation, précarité et inégalités, Québec, Gouvernement du Québec, 17 juin 2021, p. 53. ↑

Capitalisme de surveillance, intelligence artificielle et droits humains

Le vingt et unième siècle a vu l’essor d’une nouvelle phase de développement du capitalisme qualifiée par Shoshana Zuboff de capitalisme de surveillance[1], alors que d’autres, comme Jonathan Durand Folco et Jonathan Martineau, parlent plutôt de capitalisme algorithmique[2]. Dans cet article, nous utiliserons l’une ou l’autre de ces appellations, selon l’angle d’analyse.
Ce nouveau capitalisme, fondé sur l’exploitation des données personnelles rendues disponibles par un monde de plus en plus hyperconnecté a été développé par des entreprises qui, jeunes pousses (startups) au début des années 2000, ont aujourd’hui la plus haute capitalisation boursière. Ces entreprises ont pu déployer leur activité sans qu’aucun mécanisme ne les régule. L’essor débridé de ce nouveau capitalisme bouleverse les rapports sociaux sur tous les plans et représente une menace pour les libertés et la démocratie, en plus d’avoir des répercussions majeures sur de nombreux droits humains en matière de santé, de travail et d’environnement.
Les fondements du capitalisme de surveillance
Au début des années 2000, Google cherche à rentabiliser son moteur de recherche et se rend compte que l’activité des usagères et usagers génère une masse de données qui permettent d’en inférer leurs goûts, leur orientation sexuelle, leur état de santé physique et psychologique, etc. Ces données, que Shoshana Zuboff qualifie de surplus comportemental, possèdent une grande valeur marchande car elles permettent, après traitement, de vendre davantage de publicité en ciblant les personnes les plus réceptives et d’orienter leurs comportements. Elles constituent le nouveau pétrole, la matière première du capitalisme de surveillance.
Les géants du numérique, en particulier Facebook, n’ont pas tardé à s’engouffrer dans la voie ouverte par Google. La collecte de données sur nos comportements ne connait plus de limites. La prolifération d’objets connectés permet de scruter nos vies et nos corps dans leurs recoins les plus intimes : capteurs corporels qui enregistrent nos signes vitaux, lits connectés qui surveillent notre sommeil, assistants vocaux qui espionnent nos conversations, balayeuses robotisées dotées de caméras qui se promènent partout dans la maison. La capture de données a été investie par des entreprises dont le produit n’a au départ rien à voir avec la collecte de données. L’exemple des fabricants d’automobiles est frappant.
Aux États-Unis, la compagnie sans but lucratif Mozilla a décrit les voitures comme le pire produit qu’elle a examiné en matière de violation de la vie privée[3]. Les constructeurs d’autos collectent de l’information à partir de vos interactions avec votre véhicule, des applications que vous utilisez, de vos communications téléphoniques avec l’application mains libres, de vos déplacements, ainsi que de tiers comme Sirius XM et Google Maps. Or, 84 % des fabricants avouent partager ces informations avec des fournisseurs de services ou des agrégateurs de données, 76 % disent qu’ils peuvent les vendre et 56 % déclarent qu’ils les fournissent au gouvernement ou à la police sur simple demande. Parmi les informations que l’usagère ou l’usager « accepte » de partager, il peut y avoir l’activité sexuelle (Nissan et Kia) et six compagnies mentionnent les informations génétiques. De plus, 92 % des fabricants donnent peu ou pas de contrôle à l’usagère ou l’usager et présument que vous acceptez ces politiques en achetant leur véhicule. Seuls Renault et Dacia, dont les voitures sont vendues en Europe et soumises à la réglementation européenne, offrent une réelle option de refus. Tesla, la pire des compagnies examinées par Mozilla, vous informe que vous pouvez refuser la collecte de ces informations mais que votre voiture pourrait souffrir des dommages et devenir… inopérante !
Au Québec, les lois de protection des renseignements personnels font barrière à de telles pratiques. Une entreprise ne peut recueillir de renseignements personnels qu’avec le consentement de la personne et pour une fin déterminée. Ce consentement peut être retiré en tout temps. L’entreprise ne peut recueillir que les renseignements nécessaires aux fins déterminées avant la collecte. Cette obligation de limiter la cueillette aux seuls renseignements nécessaires est impérative et une entreprise ne peut y déroger même avec le consentement de la personne concernée. Par ailleurs, il est possible de recueillir des renseignements personnels au moyen d’une technologie capable d’identifier des personnes, de les localiser ou d’en effectuer le profilage. Cependant, cela ne doit être fait qu’avec le consentement des personnes de sorte que cette technologie doit être désactivée par défaut. Les sanctions en cas de non-respect de la loi peuvent être importantes. Cela dit, on peut se demander dans quelle mesure la Commission d’accès à l’information (CAI) pourra s’assurer du respect de ces dispositions dans un marché mondial de l’automobile. Contrairement à l’assistant vocal qu’on peut refuser d’acheter, la voiture est un bien essentiel pour beaucoup de personnes.
Information, débat public et démocratie
Les données comportementales récoltées peuvent tout aussi bien être utilisées pour influer sur des processus démocratiques comme les référendums et les élections. Le cas de Cambridge Analytica est bien documenté. Cette compagnie a exploité jusqu’en 2014 la possibilité offerte par Facebook aux développeurs d’application d’avoir accès aux données de tous les ami·e·s des utilisatrices et utilisateurs de l’application. C’est ainsi qu’elle a pu obtenir les données de 87 millions de personnes. Ces données lui ont permis de cibler des électrices et des électeurs et de les bombarder de messages susceptibles de les inciter à appuyer Donald Trump aux élections de 2016. La compagnie est également intervenue pour influer sur le vote de la sortie du Royaume-Uni de l’Union européenne, le Brexit.
Le fonctionnement même des plateformes contribue à polluer le débat démocratique. Pour mousser l’engagement de l’internaute, les plateformes mettent à l’avant-plan les « nouvelles » les plus sensationnalistes et, par le fait même, se trouvent à faire la promotion de fausses nouvelles (fake news). Pour maintenir son intérêt, elles vont proposer des liens vers des sites qui confortent son opinion, ce qui le confine dans des chambres d’écho qui favorisent la montée de l’extrémisme. Les conséquences sont particulièrement graves dans les pays du Sud global, où les mécanismes de modération de contenu de Facebook sont particulièrement peu nombreux et peu efficaces. La propagation de fausses nouvelles a exacerbé la violence ethnique en Éthiopie et contribué au génocide des Rohingyas au Myanmar.
En même temps, nous assistons à la destruction accélérée des médias traditionnels provoquée par ces plateformes. La circulation d’une information fiable et diversifiée, essentielle à la vie démocratique, est laminée par le capitalisme algorithmique.
Le problème des méfaits en ligne
Le fonctionnement même des plateformes est propice à la prolifération d’activités toxiques ou carrément illégales en ligne. En réponse aux populations qui leur demandent d’agir, les gouvernements ont entrepris d’adopter des projets de loi ayant pour but de sévir contre ces méfaits.
En juillet 2021, le gouvernement du Canada a proposé de créer un seul système pour traiter cinq types de méfaits très différents : le discours haineux, le partage non consensuel d’images intimes, le matériel d’abus sexuel d’enfant, le contenu incitant à la violence et le contenu terroriste.
Le projet aurait créé un régime de surveillance appliqué par les plateformes qui inciterait celles-ci à retirer du contenu rapidement, sous peine d’amendes sévères, sur simple dénonciation d’un tiers et sans possibilité d’appel. La menace à la liberté d’expression était patente. De plus, les plateformes auraient été obligées de partager ces contenus avec les forces de l’ordre et les agences de sécurité nationale.
Face au tollé qu’a suscité son projet, le gouvernement est retourné à la planche à dessin et nous attendons toujours un nouveau projet. Cette saga illustre la difficulté de règlementer les dommages en ligne sans tomber dans une autre forme de surveillance liberticide. Peut-on éviter ce dilemme sans remettre en question le modèle d’affaires des plateformes qui tirent profit de ce genre d’activités ?
Les effets délétères sur la santé
Les plateformes sont fondées sur une rétroaction conçue pour développer une dépendance aux écrans, ce qui a des conséquences délétères sur la santé. Elles peuvent favoriser l’isolement au détriment de rapports sociaux significatifs. L’effet est particulièrement dévastateur pour les jeunes et affecte les filles plus que les garçons. Dans sa dénonciation de Facebook, la lanceuse d’alerte Frances Haugen[4] a dévoilé des études internes de Facebook selon lesquelles 13,5 % des adolescentes au Royaume-Uni avaient constaté un accroissement de leurs pensées suicidaires après s’être inscrites sur Instagram et 17 % avaient vu leurs troubles alimentaires augmenter. Instagram a contribué à empirer la situation de 32 % des filles qui ont des problèmes d’image corporelle. Aux États-Unis, en octobre 2023, 33 États ont intenté une poursuite contre Instagram et Meta pour avoir délibérément induit une dépendance à leur plateforme tout en étant conscients des dommages potentiels.
Un désastre environnemental
L’impact environnemental de ce nouveau stade de développement du capitalisme est largement absent du débat public alors que sa croissance fulgurante a des conséquences majeures en matière de pollution et, surtout, de consommation de ressources naturelles et énergétiques. Bien qu’il soit le nouveau carburant d’une croissance incompatible avec la résolution de la crise climatique, il est plutôt présenté à la population comme une économie de l’immatériel relativement inoffensive.
Un simple courriel avec une pièce jointe peut laisser une empreinte carbone d’une vingtaine de grammes. La transmission de vidéos est encore plus énergivore. Le cas extrême du clip Gangnam Style du chanteur sud-coréen Psy, visionné 1,7 milliard de fois par an, équivaut à la consommation annuelle d’une ville française de 60 000 personnes[5]. La production et la transmission boulimiques de données engendrent une consommation d’énergie faramineuse qui représenterait 10 % de l’énergie électrique de la planète[6]. Cette production de données est en croissance exponentielle. Elle est multipliée par quatre tous les cinq ans[7] et la production projetée pour 2035 est d’environ 50 fois celle de 2020, soit 2142 zettaoctets[8]. La discussion sur les systèmes d’intelligence artificielle (IA) comme ChatGPT néglige le coût énergétique de ces outils. L’utilisation d’algorithmes comme Bard, Bing ou ChatGPT dans des requêtes de recherche multiplierait par dix l’empreinte carbone des recherches.
Cette croissance sans limites du stockage et de la transmission de données et l’utilisation d’algorithmes de plus en plus puissants pour les traiter entrainent une explosion des infrastructures telles que la 5G[9] et des centres de données et de calculs gigantesques. L’obsolescence programmée des appareils augmente d’autant la consommation de matières premières comme les métaux rares, ce qui a des effets désastreux sur l’environnement. La croissance illimitée du numérique est un obstacle à la décarbonation de l’économie et à la sortie de la crise climatique, crise qui menace le droit à la santé, à l’alimentation, au logement et même à la survie de millions de personnes.
Surveillance étatique et policière
La masse de données que le capitalisme de surveillance a produites à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et d’un maintien de l’ordre prédictif[10].
En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la National Security Agency (NSA) des États-Unis et la puissance des outils qui lui donnent accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube et Apple. Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada. La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignement et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opérations numériques qui analysent en temps réel toutes les informations disponibles pour diriger les interventions de la police sur le terrain[11]. Les informations traitées proviennent autant des banques de données des services de police que des images des caméras de surveillance publiques et privées ainsi que des informations extraites des réseaux sociaux par des logiciels. Les banques de données des forces policières contiennent des données sur des citoyennes et des citoyens qui n’ont jamais été condamnés pour un quelconque crime, données issues d’interpellations fondées sur le profilage racial, social ou politique.
Maintien de l’ordre prédictif
Les forces policières ont de plus en plus recours à des systèmes de décisions automatisés (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire ou les individus susceptibles d’en commettre. Ces systèmes de maintien de l’ordre prédictif sont alimentés de données qui renforcent une tendance à la répression de certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes : « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincus que nos outils sont non seulement scientifiques, mais également justes[12] ». Les quartiers pauvres sont également ceux où l’on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les préjugés racistes des SDA et des interventions policières.
Le rôle des entreprises privées
Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir qui ont des liens avec l’armée et les agences de renseignement et d’espionnage. Des compagnies comme Stingray fabriquent du matériel qui permet aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usagère ou l’usager et même d’accéder au contenu de la communication. Le logiciel Pegasus de la compagnie israélienne NSO, qui permet de prendre le contrôle d’un téléphone, a été utilisé par des gouvernements pour espionner des militantes et militants ainsi que des opposantes et opposants. D’autres entreprises comme Clearview AI et Amazon fournissent des données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la protection de la vie privée du Canada a déclaré illégales les actions de Clearview AI ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC).
La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Selon une étude de l’American Civil Liberties Union (ACLU), cette compagnie entretient une relation de promiscuité avec les forces policières et les agences de renseignement allant jusqu’à partager les informations sur ses utilisatrices et utilisateurs et à conclure des contrats confidentiels avec ces agences[13].
Le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières aux États-Unis. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usagère ou l’usager d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police. Environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras[14], le tout sans mandat judiciaire !
Tous ces développements se font sans débat public et sans transparence des forces policières. Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motif. Elles contournent également l’exigence d’un mandat judiciaire dans le cas des formes intrusives de surveillance. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier et de discrimination.
Le cadre légal qui gouverne la police doit être mis à jour de façon à protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.
Législation sur la protection de la vie privée au service du capital
Les premières lois de protection des renseignements personnels ont été adoptées dans les années 1980 et 1990. Afin de les adapter à l’ère numérique, particulièrement dans le contexte du développement de l’intelligence artificielle, l’Assemblée nationale adoptait la Loi 25, sanctionnée le 22 septembre 2021[15].
Bien que la Loi 25 comporte certaines avancées, notamment quant aux pouvoirs de la Commission d’accès à l’information (CAI) en cas de fuite de données, son objet principal consiste à libéraliser la communication et l’utilisation des données et à autoriser de multiples échanges de renseignements personnels entre ministères et organismes publics, le tout sans le consentement de la personne concernée.
La Loi 25 abolit le mécanisme de contrôle préalable de la CAI sur la communication de renseignements personnels sans le consentement de la personne concernée à des fins d’étude, de recherche ou de statistiques. On passe donc d’un régime d’autorisation à un régime d’autorégulation de la communication sans consentement de renseignements nominatifs possiblement très sensibles[16]. Un régime en partie similaire a été établi par la Loi 5 quant aux renseignements relatifs à la santé.
Le projet de loi 38[17], sanctionné le 6 décembre 2023, s’inscrit dans cette lignée. Les organismes publics, désignés comme source officielle de données numériques gouvernementales, n’auront plus à faire approuver par la CAI leurs règles de gouvernance des renseignements personnels. De plus, sur simple autorisation du gouvernement, des renseignements personnels détenus par l’État pourraient être utilisés sans consentement dans le cadre de projets pilotes, à de vagues fins d’étude, d’expérimentation ou d’innovation dans le domaine cybernétique ou numérique.
Les données que détiennent les organismes publics et les ministères constituent un bien collectif qui suscite la convoitise. En effet, les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de même que des entreprises pharmaceutiques et technologiques investissent de plus en plus le domaine médical. Les données confiées à des entreprises étatsuniennes sont assujetties au Cloud Act et au Patriot Act des États-Unis, quel que soit leur lieu physique d’hébergement. Pierre Fitzgibbon, aujourd’hui ministre de l’Économie, de l’Innovation et de l’Énergie, a qualifié en 2020 les données que détient la Régie de l’assurance maladie du Québec (RAMQ) de « mine d’or ». Il ajoutait : « La stratégie du gouvernement, c’est carrément de vouloir attirer les “pharmas”, quelques “pharmas”, à venir jouer dans nos platebandes, profiter de ça[18] ».
L’étude de l’Institut de recherche et d’informations socioéconomiques (IRIS) sur le financement octroyé par le gouvernement du Québec à l’IA en santé confirme la vision du ministre. L’étude démontre que les fonds publics sont alloués de manière disproportionnée à des projets de recherche menés en partenariat avec de jeunes pousses et des entreprises internationales du secteur pharmaceutique. Le rôle du réseau de la santé et des services sociaux consiste à fournir des données massives et le terrain d’expérimentation dont ces entreprises ont besoin pour développer leurs produits avant de pouvoir les commercialiser internationalement. Comme le souligne l’IRIS, « la multiplication des projets d’ouverture des données est directement liée à la pression pour développer le plus rapidement possible une industrie utilisant l’IA » et « les champs d’application de l’IA sont principalement centrés autour des marchés construits par l’industrie pharmaceutique et l’industrie du numérique[19] ». Ce sont des marchés qui favorisent une médecine de pointe individualisée, la multiplication des tests diagnostiques et une surutilisation de l’imagerie médicale, une médecine curative coûteuse au détriment d’une médecine préventive qui s’attaque aux problèmes de santé de la population. Cette orientation est intrinsèquement discriminatoire. La médecine de pointe bénéficie principalement aux couches aisées de la population, alors qu’elle sous-finance les soins de base et néglige les déterminants sociaux de la santé qui sont à la source des problèmes de santé des plus pauvres.
Pouvoir algorithmique, discrimination et exclusion
Le capitalisme algorithmique ne se contente pas d’envahir le champ des données comportementales des individus à des fins commerciales. Il cherche à pénétrer toutes les sphères d’activités ainsi que les institutions publiques et à imposer une gouvernance algorithmique qui sert ses intérêts. Selon Jonathan Durand Folco et Jonathan Martineau, « La régulation algorithmique comprend un ensemble de savoirs et de dispositifs permettant de représenter la réalité sociale par la collecte et l’analyse de données massives, de diriger des contextes d’interaction par l’instauration de règles, normes et systèmes de classification opérés par les algorithmes, et d’intervenir plus ou moins directement pour modifier les comportements des individus[20] ».
Les systèmes de décision automatisés (SDA) qui reposent sur l’IA sont maintenant utilisés pour décider qui aura accès à un prêt hypothécaire, qui sera éligible à une assurance. Aux États-Unis, les SDA sont même utilisés pour décider qui sera admis à l’université et quelle détenue ou détenu aura droit à une libération conditionnelle. Le jugement humain est de plus en plus écarté du processus de prise de décision. Les algorithmes derrière ces systèmes sont entrainés à partir de compilations massives de données sociétales qui reflètent les préjugés historiques de nos sociétés envers les femmes, les Autochtones, les minorités sexuelles et de genre, les personnes racisées et marginalisées, et perpétuent ainsi les discriminations. Ces SDA sont complexes et protégés par les droits de propriété intellectuelle. Leur fonctionnement opaque ne fait pas l’objet d’un examen public indépendant. Les personnes peuvent difficilement en appeler des décisions injustes dont elles sont victimes.
L’utilisation de ces systèmes implique que les individus doivent dorénavant transiger avec les institutions publiques et les entreprises au moyen d’outils informatiques que toutes et tous ne possèdent pas ou ne maitrisent pas. La vie numérique renforce les exclusions déjà effectives. Plusieurs revendications sont mises de l’avant pour contrer ces atteintes au droit à l’égalité : possibilité de refuser un traitement automatisé, possibilité de connaitre les raisons d’une décision et d’en appeler, obligation de transparence quant au fonctionnement des SDA.
Le défi…
Nous sommes au tout début de la prise de conscience du capitalisme de surveillance et de ses effets. Comme on le constate, le développement de ce nouveau capitalisme soulève de nombreux enjeux de droits qui dépassent le seul droit à la vie privée. La surveillance et la manipulation des comportements sont des atteintes à l’autonomie des individus, à la vie démocratique et au droit à l’information. Le manque de transparence dans la collecte de données et les systèmes de décision automatisés qui servent à la prise de décision sont source de discrimination et accentuent le déséquilibre de pouvoir entre les individus d’une part, les géants du numérique et les gouvernements d’autre part. Les phénomènes de dépendance et l’impact environnemental du capitalisme de surveillance portent atteinte au droit à la santé et à un environnement sain.
À ses débuts, dans les années 1990, Internet était source d’espoir. Il allait briser le monopole des grands médias traditionnels, écrits et électroniques sur le débat public et permettre à des voix qui n’avaient pas accès à ces moyens de se faire entendre et de s’organiser. Cet espoir n’était pas sans fondement et Internet a effectivement permis à de nombreux mouvements sociaux (MeToo, Black Lives Matter, la campagne pour l’abolition des mines antipersonnel…) de se développer à une échelle mondiale et d’avoir une portée. Les réseaux sociaux permettent de diffuser et de dénoncer en temps réel les violations des droits aux quatre coins de la planète. On a aussi vu comment ces moyens de communication pouvaient être utiles en temps de pandémie. Cela ne doit toutefois pas nous faire perdre de vue que, si nous n’intervenons pas, le développement du numérique sous la gouverne du capitalisme de surveillance comporte de graves dangers pour les droits humains.
Un chantier de réflexion s’impose sur cette nouvelle économie des données, de même que sur l’approche consistant à définir les données collectives comme une propriété commune devant être juridiquement et économiquement socialisée. Nous devons pouvoir mettre ce nouvel univers numérique et de communication ainsi que l’IA au service du bien commun. Le défi des prochaines années consiste à se réapproprier ces outils numériques afin de les rendre socialement utiles. Le capitalisme de surveillance n’est pas une fatalité !
Par Dominique Peschard, Comité surveillance des populations, IA et droits humains de la Ligue des droits et libertés
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020. ↑
- Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, Montréal, Écosociété, 2023. ↑
- Jen Caltrider, Misha Rykov et Zoë MacDonald, Mozilla, It’s official : cars are the worst product category we have ever reviewed for privacy, Fondation Mozilla, 6 septembre 2023.↑
- Bobby Allyn, Here are 4 key points from the Facebook whistleblower’s testimony on Capitol Hill, National Public Radio, 5 octobre 2021. ↑
- Institut Sapiens, Paris, cité dans Guillaume Pitron, L’enfer numérique. Voyage au bout d’un like, Paris, Les liens qui libèrent, 2021, p. 168. ↑
- Pitron, ibid. ↑
- Pitron, ibid., p. 334. ↑
- Un zettaoctets = 1020 octets. ↑
- NDLR. La 5G est la cinquième génération de réseaux de téléphonie mobile. Elle succède à la quatrième génération, appelée 4G, et propose des débits plus importants ainsi qu’une latence fortement réduite. ↑
- Un système conçu pour prédire nos comportements à partir de l’utilisation de données. ↑
- Martin Lukacs, « Canadian police expanding surveillance powers via new digital “operations centres” », The Breach, 13 janvier 2022.
- Cathy O’Neil et Cédric Villani, Algorithmes. La bombe à retardement, Paris, Les Arènes, 2020, p. 144. ↑
- Emiliano Falcon-Morano, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure, American Civil Liberties Union (ACLU), 18 juin 2021. ↑
- Lauren Bridges, « Amazon Ring’s is the largest civilian surveillance network the US has ever seen », The Guardian, 18 mai 2021. ↑
- NDLR. La Loi 25 désigne certaines dispositions de la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels dans le secteur privé. ↑
- Anne Pineau, « Le capitalisme de surveillance peut dormir tranquille! », Droits et libertés, vol. 39, n° 2, 2020. ↑
- Devenu la Loi modifiant la Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement et d’autres dispositions législatives. ↑
- Marie-Michèle Sioui, « Québec veut attirer les pharmaceutiques avec les données de la RAMQ », Le Devoir, 21 août 2020. ↑
- Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, 2023. ↑
- Durand Folco et Martineau, op. cit., p. 201. ↑

Quelques leçons féministes marxistes pour penser l’intelligence artificielle autrement

Dès le début, les féministes marxistes qui voulaient une émancipation féministe et antiraciste se sont heurtées aux limites que représentaient les contre-propositions socialistes au régime capitaliste. Plus tard, elles ont aussi dû considérer des courants anti-technologiques qui tendaient à essentialiser le lien des femmes à la nature. Ces réflexions se sont consolidées dans le courant théorique de la reproduction sociale. Dans le présent texte, je reviens sur certains des travaux qui en sont issus afin d’envisager d’autres voies aux technologies d’intelligence artificielle (IA) qui dévalorisent le travail reproductif. Ils permettent de critiquer simultanément le rôle des technologies dans la précarisation des activités de soin tout en ne masquant pas les insuccès de leur contrôle par l’État. J’illustrerai ces avenues à partir des propositions que j’ai formulées dans le cadre d’une étude publiée par l’Institut de recherche et d’informations socioéconomiques (IRIS) qui explorait les conditions de production de l’IA dans le secteur de la santé[1]. J’envisagerai de quelle manière, en se référant aux théories de la reproduction sociale, on pourrait penser et produire des innovations respectant les objectifs de réduction des inégalités en santé dans le réseau public.
Le numérique comme vecteur de marchandisation
Dès les années 1970, les théories de la reproduction sociale ont traité de l’organisation du travail en usine, de la bombe atomique et même des ordinateurs. Plus récemment, les travaux sur les biotechnologies ont ramené cet horizon théorique à l’avant-plan. Dans son plus récent ouvrage, Silvia Federici, figure de proue de ce courant, offre une courte réflexion sur les nouvelles technologies numériques et les robots de soins. Elle affirme : « Les techniques – et plus particulièrement les techniques de communication – jouent incontestablement un rôle dans l’organisation des tâches domestiques et constituent aujourd’hui un élément essentiel de notre vie quotidienne[2] ». À l’image d’autres marxistes avant elle, Federici voit les technologies de communication comme des moyens de production, à la différence qu’elles s’intègrent directement dans l’organisation du travail reproductif. Celui-ci est considéré comme l’envers du travail productif. Sa dévalorisation systématique est l’une des clés de voûte de l’organisation de l’exploitation capitaliste. Il comprend des activités comme préparer les repas, s’occuper des personnes vulnérables ou assurer le maintien des relations affectives. Pour Federici, les technologies de communication sont des outils de travail parce qu’elles sont mobilisées dans le cadre de ces activités économiques essentielles de reproduction matérielle et sociale de la vie humaine même si elles sont souvent peu ou pas rémunérées.
Sarah Sharma, une autrice qui s’intéresse aux enjeux de genre et de race liés à la valorisation du temps, accorde elle aussi un rôle économique au numérique dans le cadre du travail reproductif. Dans un essai sur l’économie de plateforme[3], elle s’attarde à TaskRabbit, une application mobile qui organise très précisément la vie quotidienne. Celle-ci permet de déléguer l’exécution de certaines tâches ordinaires à des inconnu·e·s, moyennant rémunération. Les utilisateurs/employeurs affichent en ligne de menus travaux à faire comme aller chercher un objet acheté sur la plateforme d’échange MarketPlace, promener le chien ou aller nettoyer les planchers avant une réception. Historiquement, ce type de travail a été inégalement réparti au sein des ménages. Il tend désormais à être externalisé vers des personnes socioéconomiquement précaires qui sont, de manière croissante, des personnes racisées. Grâce à des technologies de communication comme TaskRabbit, certains groupes favorisés se délestent de l’ennui et du stress qui accompagnent la réalisation de tâches socialement dévalorisées. Ils en profitent pour vivre, selon les mots utilisés par la compagnie, « la vie qu’ils devraient vivre » :
TaskRabbit accomplit le travail, mais vous sauve aussi d’une dépendance envers autrui en dehors d’un échange économique. L’application vous met en relation avec des groupes de personnes pour qui le travail domestique n’est pas si ennuyant[4].
Ils laissent à d’autres cette vie à ne pas vivre. Dans des cas de ce type, les technologies participent à la marchandisation des tâches reproductives. Elles remplacent la figure de la ménagère par celle du tâcheron enthousiaste et flexible. La pensée de la reproduction sociale sur les technologies ne s’arrête cependant pas à leur capacité d’externalisation du travail reproductif.
Données, logique productive et économie spéculative
Les années 1990 ont été marquées par l’implantation de techniques visant à quantifier et à mesurer le travail d’exécution des soins de santé. Ce faisant, ce type de tâche reliée à la sphère reproductive devait respecter une logique productive qui implique de pouvoir calculer le plus précisément possible le rapport entre les intrants et les extrants du processus de production. Dans le cas des services publics, l’objectif consiste à augmenter l’efficience de la production. La manifestation la plus concrète de cette vision a probablement été le déploiement des méthodes de la nouvelle gestion publique, désormais appuyées par des technologies capables de capter et d’analyser des quantités monstrueuses de données. Cette quantification extrême des données est portée par le fantasme de surmonter l’improductivité d’activités comme le soin des personnes en rationalisant leur caractère intuitif et affectif. Encore aujourd’hui, la volonté de quantifier le produit des soins persiste, mais demeure un défi inachevé.
Pourtant, cette ambition n’est pas nouvelle. Dès les années 1970, les théoriciennes féministes ont examiné cette volonté de rationalisation du reproductif. Elles ont élaboré leur critique à partir du concept d’« usinification » de la reproduction. Alors que l’usine est associée à la domination d’intérêts marchands, la critique de l’usinification de la reproduction formulée par Nicole Cox et Silvia Federici[5] ne porte pas sur la privatisation de la reproduction, au contraire. Elle vise directement l’étatisation de certains services jusqu’alors offerts par les femmes. En effet, l’État est l’acteur central de la « mise en usine » de la reproduction. Dans la pensée socialiste de l’époque, la production industrielle, une fois retirée du contrôle bourgeois, représente un progrès. Après tout, elle résulte d’une collectivisation des moyens de production. La coopération dans le processus de travail augmente l’efficacité et réduit la quantité de travail socialement nécessaire pour assurer la survie des humains. La machine matérialise l’espoir de la fin du labeur physique dur et répétitif. Qui ou quoi exécute la tâche n’a réellement d’importance. Qu’il soit atteint par une machine ou par un humain, le résultat est le même. Dans la pensée socialiste, la même logique peut s’appliquer à toutes les tâches, dont les tâches reproductives.
La robotisation de certaines tâches ménagères n’est pas complètement loufoque. Le lave-vaisselle en est bien la preuve. Cependant, la robotisation de certaines tâches domestiques parait absurde pour celles qui les exécutent. Comment mécaniser « l’action de donner le bain à un enfant, de le câliner, de le consoler, de l’habiller et de lui donner à manger, de fournir des services sexuels ou d’aider les malades et les personnes âgées dépendantes[6]? » demande Federici. Pour elle, non seulement la mécanisation de ce travail de nature relationnelle est peu probable, mais elle ne représente pas un horizon post-capitaliste désirable. En effet, la collectivisation et la rationalisation de la reproduction signifient de soumettre davantage ce travail aux pressions de la performance mesurable. L’usinification du travail reproductif signifie qu’il se plie à une vision machinique du travail qui évacue la spécificité des tâches reproductives pour faire dominer la mesure et l’efficacité.
Pour les féministes de la reproduction, la collectivisation du travail reproductif par l’État n’a jamais constitué une voie d’émancipation. Dans la pensée socialiste, le travail reproductif est rétrograde et obsolète, ce qui constitue un problème majeur. Son étatisation a pour objectif de contrer son inefficacité, sans tenir compte de ses qualités non productives. En cela, ces théoriciennes se sont distinguées très tôt des autres marxistes : la répartition de la richesse ne constitue pas le problème fondamental du capitalisme. Pour éliminer les formes de domination imposées par le capitalisme, il faut selon elles abolir son mode de fonctionnement qui dévalue fondamentalement tout ce qui ne se plie pas à la rationalité productive. Cette vision industrielle des soins a aussi été appliquée dans des pays non socialistes. C’est le cas par exemple des centres d’hébergement de soins de longue durée (CHSLD) qui représentent désormais l’antithèse d’un lieu de vie épanouissant pour les personnes âgées et dont le modèle s’est révélé absurde durant la pandémie de COVID-19.
Les expériences japonaises d’intégration de robots pour les soins aux ainés démontrent que pour assumer les coûts élevés d’acquisition, les établissements de soins doivent être de grande taille et très standardisés[7]. Le travail humain, lui, ne diminue pas, mais il devient plus routinier. Si l’avenir politique des soins est celui des robots et d’une intelligence artificielle pensée comme pour une usine, cet avenir sera celui de mégastructures industrielles de soins. L’intégration actuelle des machines respecte la logique productive appliquée à l’organisation des soins. Si cette logique continue de dominer la façon de penser et d’intégrer l’IA, cette technologie dévalorisera les activités reproductives, qu’elles soient soumises à l’échange marchand ou qu’elles soient produites par l’État.
Valorisation des savoirs reproductifs
Avec le développement de l’intelligence artificielle, on peut constater une modification du rapport entre sphère productive et sphère reproductive. La tendance historique vise à dépasser l’improductivité du champ reproductif, soit en intégrant ses activités dans le circuit marchand, soit en les rationalisant de façon à les plier à la logique de production. Désormais, ces tentatives sont exacerbées par l’émergence d’une industrie des données ancrée dans une économie spéculative. Des entreprises comme TaskRabbit ne font pas qu’offrir des services. Leur modèle d’affaires repose en majeure partie sur la promesse de revenus futurs décuplés. Elles doivent croitre rapidement afin d’attirer l’attention d’une masse critique d’investisseurs. Elles seront ensuite acquises par une plus grande corporation ou, plus rarement, elles feront leur entrée sur le marché boursier. Par exemple, après avoir récolté près de 50 millions de dollars d’investissements privés en six ans, TaskRabbit a été rachetée par IKEA. L’entreprise offre désormais des services d’assemblage de ses meubles vendus en pièces détachées sans avoir à s’encombrer de la responsabilité d’être un employeur. Alors que le travail industriel de montage a été délocalisé à l’intérieur des foyers individuels pour être accompli gratuitement, celui-ci redevient rémunéré, mais très précaire.
Dans le secteur de la santé, un champ d’activités plus près de la sphère de la reproduction que le montage de mobilier, j’ai pu observer un foisonnement de nouvelles entreprises qui profitent d’un accès privilégié aux institutions publiques de santé pour commercialiser des technologies d’IA destinées au marché international. Le système public de santé sert de terrain de mise au point et d’expérimentation de produits. Cette exploitation des activités de soins outrepasse leurs limites productives en ne cherchant pas à agir directement sur elles. Or, bien qu’elles ne participent pas de prime abord à marchandiser ou à « usinifier » les soins, ces technologies pourraient avoir une incidence sur leur orientation. Déjà, on voit un accroissement des approches médicales axées sur les traitements complexes et invasifs. On observe une adéquation entre le développement de l’IA et les priorités des géants pharmaceutiques. Les ressources sont orientées vers la production de technologies hyperspécialisées en oncologie ou en génétique. Pourtant, la recherche montre que des politiques orientées vers des investissements massifs dans des traitements curatifs sont inefficaces du point de vue de la santé publique. Des actions préventives axées sur l’environnement ou le logement le sont significativement plus. C’est une vision de l’efficacité que ceux qui sont à l’origine des initiatives en IA en santé ne partagent pas.
Mesurer sobrement
Serait-il possible d’intégrer des technologies comme l’IA dans l’organisation des soins de santé sans procéder à une hyperrationalisation congruente à la logique de la sphère productive ? Une posture prudente reste de mise face à ces technologies qui quantifient, mesurent, analysent et dirigent la prise de décision de façon schématique. Cela est d’autant plus vrai qu’actuellement les structures organisationnelles complexes et hiérarchiques des régimes publics se révèlent avides de données. Elles exercent aussi une surveillance accrue des travailleuses et des travailleurs. Sachant que l’accumulation des dispositifs alourdit le travail et entraine toujours des résistances qui peuvent se solder par du désistement face à la perte du sens au quotidien, les technologies doivent éviter d’attiser une soif insatiable de données quantitatives.
Par ailleurs, une collecte extensive de données pourrait aussi nuire à la relation de soins, en particulier celle avec des personnes qui vivent des situations de marginalité ou qui sont criminalisées. Pour ces dernières, la relation interpersonnelle de confiance est fondée sur la confidentialité. Au printemps 2023, une nouvelle loi a été adoptée pour favoriser la circulation des données des patientes et patients du Québec. Plusieurs ordres professionnels ont publiquement dénoncé de nombreuses dispositions qui mettent à mal le secret professionnel. Ceux-ci craignent que certains patients puissent refuser des soins ou évitent de livrer les informations essentielles à une intervention professionnelle réussie par peur de s’exposer à d’autres regards.
Des principes de sobriété technologique et de sobriété quant à la quantité de données constituent des priorités pour éviter une approche surrationalisante, prête à tout pour réduire les actes reproductifs à des entités comparables. Cette sobriété permettrait de freiner les ambitions économiques qui accompagnent la montée de la production de données depuis déjà plus de 10 ans.
Pour un autre contrôle des outils
Rejeter en bloc l’adoption de technologies ou de savoirs contemporains soulève néanmoins deux problèmes majeurs. D’abord, cette posture est façonnée par le déterminisme technologique. Elle ne prend pas en compte le fait que l’usage d’une même technologie peut varier selon les intérêts qui contrôlent sa production ou ses infrastructures. Ensuite, une opposition catégorique participe à la naturalisation du travail reproductif. L’anthropologue féministe marxiste Paola Tabet soutient que la dévalorisation du travail des femmes, et la dévalorisation des femmes elles-mêmes, se sont construites par le contrôle masculin des outils techniques spécialisés[8]. En ne pouvant pas créer les outils performants par et pour elles-mêmes, elles ont été astreintes à des tâches inutilement harassantes. Ce faisant, certains travaux considérés comme typiquement féminins ont aussi été connotés comme plus naturels. Exclure des technologies sous prétexte qu’elles ne respecteraient pas l’essence de la sphère reproductive perpétuerait la division sexuelle du travail par les outils.
Ainsi, il faut faire le pari que l’IA n’est pas foncièrement en opposition aux soins de santé, mais qu’elle ne doit pas être contrôlée par des intérêts étrangers aux soins. En sortant son développement du circuit marchand de la spéculation pour remettre la prise de décision de ses orientations dans les mains de celles et ceux qui sont au plus près des activités de soins, la production de l’IA pourrait correspondre à une conception radicalement différente.
Bientôt, les besoins en soins à domicile et la privatisation des services en cours depuis vingt ans s’accéléreront probablement. Les plateformes de type Uber centrées sur les soins à domicile risquent alors de devenir d’usage commun. Le discours promotionnel se fera autour des capacités algorithmiques de la prédiction des besoins, de l’optimisation des trajets et de l’établissement de prix concurrentiels. Malgré la demande, ce type de plateforme n’améliorera pas les conditions d’exercice du travail de soin. Pourtant, il sera quand même possible de trouver des personnes pour qui sortir un grand-père malade du lit ne sera « pas ennuyant » parce que cela lui permet de gagner sa vie. De quoi pourrait avoir l’air une telle plateforme si le contrôle de l’organisation du travail était laissé aux mains des bénéficiaires et des travailleuses et travailleurs au sein d’un système public ? Pourrait-elle, dans de bonnes conditions structurelles, soutenir une démarche de valorisation du reproductif ? Ces questions exigent des expérimentations pour y répondre. Pour que les technologies ne soient pas seulement au service de ceux et celles qui ont le luxe de « vivre la vie qu’ils devraient vivre », une réflexion profonde sur le temps de travail et le rapport aux tâches relationnelles s’imposera inévitablement.
Par Myriam Lavoie-Moore, chercheuse à l’IRIS et professeure adjointe à l’École de communications sociales de l’Université Saint-Paul
- Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, 2023. ↑
- Silvia Federici, Réenchanter le monde. Le féminisme et la politique des communs, Genève/Paris, Entremonde, 2022, p. 258. ↑
- Sarah Sharma, « TaskRabbit : the gig economy and finding time to care less », dans Jeremy Wade Morris et Sarah Murray (dir.), Appified. Culture in the Age of Apps, Ann Arbor, University of Michigan Press, 2018. ↑
- Ibid.p. 64. Ma traduction. ↑
- Nicole Fox et Silvia Federici, Counter-Planning from the Kitchen : Wages for Housework, a Perspective on Capital and the Left, New York, New York Wages for Housework Committee et Bristol, Falling Wall Press, 1975. ↑
- Silvia Federici, Le capitalisme patriarcal, Paris, La Fabrique, 2019, p. 94. ↑
- James Wright, « Inside Japan’s long experiment in automating elder care », MIT Technology Review, 9 janvier 2023. ↑
- Paola Tabet, Les doigts coupés. Une anthropologie féministe, Paris, La Dispute, 2018. ↑

La privation de monde face à l’accélération technocapitaliste

La pandémie de COVID-19 a conduit à un déploiement sans précédent de l’enseignement à distance (EAD), une tendance qui s’est maintenue par la suite, et cela malgré les nombreux impacts négatifs observés. De plus, le développement rapide des intelligences artificielles (IA) dites « conversationnelles » de type ChatGPT a provoqué une onde de choc dans le monde de l’éducation. La réaction des professeur·e·s à cette technologie de « disruption[1] » a été, en général, de chercher à contrer et à limiter l’usage de ces machines. Le discours idéologique dominant fait valoir, à l’inverse, qu’elles doivent être intégrées partout en enseignement, aussi bien dans l’élaboration d’une littératie de l’IA chez l’étudiant et l’étudiante que dans la pratique des professeur·e·s, par exemple pour élaborer les plans de cours. Nous allons ici chercher à montrer qu’au contraire aller dans une telle direction signifie accentuer des pathologies sociales, des formes d’aliénation et de déshumanisation et une privation de monde[2] qui va à l’opposé du projet d’autonomie individuelle et collective porté historiquement par le socialisme.
L’expérience à grande échelle de la pandémie
Les étudiantes, les étudiants et les professeur·e·s ont été les rats de laboratoire d’une expérimentation sans précédent du recours à l’EAD durant la pandémie de COVID-19. Par la suite, nombre de professeur·e·s ont exprimé des critiques traduisant un sentiment d’avoir perdu une relation fondamentale à leur métier et à leurs étudiants, lorsqu’ils étaient, par exemple, forcés de s’adresser à des écrans noirs à cause des caméras fermées lors des séances de visioconférence. Quant aux étudiantes et étudiants, 94 % d’entre eux ont rapporté ne pas vouloir retourner à l’enseignement en ligne[3]. Des études ont relevé de nombreuses répercussions négatives de l’exposition excessive aux écrans durant la pandémie sur la santé mentale[4] : problèmes d’anxiété, de dépression, d’isolement social, idées suicidaires.
Le retour en classe a permis de constater des problèmes de maitrise des contenus enseignés (sur le plan des compétences en lecture, en écriture, etc.) ainsi que des problèmes dans le développement de l’autonomie et de la capacité de s’organiser par rapport à des objets élémentaires comme ne pas arriver à l’école en pyjama, la ponctualité, l’organisation d’un calendrier, la capacité à se situer dans l’espace ou à faire la différence entre l’espace privé-domestique et l’espace public, etc.
D’autres études ont relevé, au-delà de la seule pandémie, des problèmes de développement psychologique, émotionnel et socioaffectif aussi bien que des problèmes neurologiques chez les jeunes trop exposés aux écrans. Une autrice comme Sherry Turkle par exemple note une perte de la capacité à soutenir le regard d’autrui, une réduction de l’empathie, de la socialité et de la capacité à entrer en relation ou à socialiser avec les autres.
Tout cela peut être résumé en disant qu’il y a de nombreux risques ou effets négatifs de l’extension des écrans dans l’enseignement sur le plan psychologique, pédagogique, développemental, social, relationnel. Le tout est assorti d’une perte ou d’une déshumanisation qui affecte la relation pédagogique de transmission en chair et en os et en face à face au sein d’une communauté d’apprentissage qui est aussi et d’abord un milieu de vie concret. Cette relation est au fondement de l’enseignement depuis des siècles; voici maintenant qu’elle est remplacée par le fantasme capitaliste et patronal d’une extension généralisée de l’EAD. Or, il est fascinant de constater qu’aucun des risques ou dangers documentés et évoqués plus haut n’a ralenti le projet des dominants, puisqu’à la suite de la pandémie, les pressions en faveur de l’EAD ont continué à augmenter. À L’UQAM, par exemple, les cours en ligne étaient une affaire « nichée » autrefois; après la pandémie, on en trouve plus de 800. L’extension de l’EAD était aussi une importante demande patronale au cœur des négociations de la convention collective dans les cégeps en 2023, par exemple. Il sera maintenant possible pour les collèges de procéder à l’expérimentation de projets d’EAD même à l’enseignement régulier !
Une société du « tele-everything »
Toute la question est de savoir pourquoi la fuite en avant vers l’EAD continue malgré les nombreux signaux d’alarme qui s’allument quant à ses répercussions négatives. Une partie de la réponse se trouve dans le fait que l’EAD s’inscrit dans un projet politique ou dans une transformation sociale plus large. Comme l’a bien montré Naomi Klein[5], la pandémie de COVID-19 a été l’occasion pour les entreprises du capitalisme de plateforme ou les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de déployer le projet d’une société du « tele-everything » où tout se ferait désormais à distance grâce à une infrastructure numérique d’une ampleur sans précédent. Cela signifie non seulement un monde avec beaucoup moins d’enseignantes et d’enseignants, puisque les cours seront donnés en ligne ou éventuellement par des tuteurs-robots, mais cela concerne aussi un ensemble d’autres métiers dont les tâches sont d’ordre cognitif, puisqu’il s’agit précisément d’automatiser des tâches cognitives autrefois accomplies par l’humain. De nombreux métiers sont donc menacés : journaliste, avocat, médecin, etc. Désormais chacun pourra accéder, par exemple, au téléenseignement, à la télémédecine, au divertissement par la médiation d’un écran et depuis son foyer. Nous pouvons donc parler d’un projet politique visant à transformer profondément les rapports sociaux au moyen de l’extension d’un modèle de société technocapitaliste ou capitaliste cybernétique intercalant la médiation des écrans et de la technologie entre les sujets.
Vers une société cybernétique
Nous pouvons, en nous appuyant sur des philosophes comme le Québécois Michel Freitag ou le Français Bernard Stiegler, relever que la société moderne était caractérisée par la mise en place de médiations politico-institutionnelles devant, en principe, permettre une prise en charge réfléchie des sociétés par elles-mêmes. Plutôt que de subir des formes d’hétéronomie culturelles, religieuses ou politiques, les sociétés modernes, à travers leurs institutions que l’on pourrait appeler « républicaines », allaient faire un usage public de la raison et pratiquer une forme d’autonomie collective : littéralement auto-nomos, se donner à soi-même sa loi. La condition de cette autonomie collective est d’abord, bien entendu, que les citoyennes et citoyens soient capables d’exercer leur raison et leur autonomie individuelle, notamment grâce à une éducation qui les ferait passer du statut de mineur à majeur. Le processus du devenir-adulte implique aussi d’abandonner le seul principe de plaisir ou le jeu de l’enfance pour intégrer le principe de réalité qu’implique la participation à un monde commun dont la communauté politique a la charge, un monde qui est irréductible au désir de l’individu et qui le transcende ou lui résiste dans sa consistance ou son objectivité symbolique et politique.
D’après Freitag, la société moderne a, dans les faits, été remplacée par une société postmoderne ou décisionnelle-opérationnelle, laquelle peut aussi être qualifiée de société capitaliste cybernétique ou systémique. Dans ce type de société, l’autonomie et les institutions politiques sont déclassées au profit de systèmes autonomes et automatiques à qui se trouve de plus en plus confiée la marche des anciennes sociétés. De toute manière, ces dernières sont de plus en plus appelées à se dissoudre dans le capitalisme, et donc à perdre leur spécificité culturelle, symbolique, institutionnelle et politique. Ces transformations conduisent vers une société postpolitique. Elles signifient que l’orientation ou la régulation de la pratique sociale ne relève plus de décisions politiques réfléchies, mais se voit déposée entre les mains de systèmes – le capitalisme, l’informatique, l’intelligence artificielle – réputés décider de manière plus efficace que les individus ou les collectivités humaines. Bref, c’est aux machines et aux systèmes qu’on demande de penser à notre place.
Les anciennes institutions d’enseignement se transforment en organisations calquées sur le fonctionnement et les finalités de l’entreprise capitaliste et appelées à s’arrimer aux « besoins du marché ». Plus les machines apprennent ou deviennent « intelligentes » à notre place, et plus l’enseignement est appelé, suivant l’idéologie dominante, à se placer à la remorque de ces machines. Désormais, la machine serait appelée à rédiger le plan de cours des professeur·e·s, à effectuer la recherche ou à rédiger le travail de l’étudiante ou de l’étudiant; elle pourra même, en bout de piste, corriger les copies, comme cela se pratique déjà en français au collège privé Sainte-Anne de Lachine. L’humain se trouve marginalisé ou évincé du processus, puisqu’il devient un auxiliaire de la machine, quand il n’est tout simplement pas remplacé par elle, comme dans le cas des tuteurs-robots ou des écoles sans professeurs, où l’ordinateur et le robot ont remplacé l’ancien maître. L’Organisation de coopération et de développement économiques (OCDE) évoque déjà dans ses rapports un monde où les classes et les écoles physiques auront tout bonnement disparu. Ce projet participe aussi d’un processus de délestage ou d’« extranéiation » cognitive qui est à rebours de la conception moderne de l’autonomie, et qu’il convient maintenant d’expliciter.
Délestage ou extranéiation cognitive
Le philosophe français Eric Sadin[6] estime qu’un seuil inquiétant est franchi à partir du moment où des facultés ou des tâches cognitives spécifiques à l’humain sont remises entre les mains de systèmes d’intelligence artificielle, par exemple l’exercice du jugement ou le fait de poser un diagnostic médical. Automatiser le chauffage d’une maison ou les lumières d’un immeuble de bureaux est beaucoup moins grave que de transférer le jugement humain dans un système extérieur. Certains intervenants et intervenantes du monde de l’éducation s’enthousiasment devant ce processus, estimant que le délestage cognitif en faveur des machines permettra de sauver du temps qui pourra être utilisé à de meilleures fins[7]. Il faut au contraire insister pour montrer que ce processus pousse la destruction de l’idéal du citoyen – ou de la citoyenne – moderne encore plus loin, puisque celui-ci est remplacé par un individu assisté ou dominé par la machine, réputée penser, juger ou décider à sa place. L’individu n’exerce plus alors la réflexivité, l’autonomie, la liberté : « il faut s’adapter », comme le dirait Barbara Stiegler.
Il est frappant de constater à quel point les technoenthousiastes prennent position sur les nouvelles technologies sans jamais se confronter à l’immense corpus de la philosophie de la technique ou la technocritique, ceci expliquant cela… La position technocritique est généralement ridiculisée en l’assimilant à quelque peur comique du changement semblable à la crainte des minijupes et du rock’n’roll dans les années 1950… Pourtant, les dangers relatifs à ce mouvement de délestage (Entlastung) ou d’extranéiation cognitive ont bien été relevés, et depuis longtemps, par les Arnold Gehlen, Günther Anders ou Michel Freitag, pour ne nommer que ceux-là.
Dès 1956, Anders développe dans L’Obsolescence de l’homme une critique du rapetissement de l’humain face à la puissance des machines. Le concept de « honte prométhéenne » désigne le sentiment d’infériorité de l’ouvrier intimidé par la puissance et la perfection de la machine qui l’a dépassé, lui, l’être organique imparfait et faillible. Le « décalage prométhéen » indique quant à lui l’écart qui existe entre la puissance et les dégâts causés par les machines d’un côté, et la capacité que nous avons de les comprendre, de nous les représenter et de les ressentir de l’autre. Les machines sont donc « en avance » sur l’humain, placé à la remorque de ses productions, diminué et du reste en retard, largué, dépassé par elles.
Anders rapporte un événement singulier qui s’est déroulé à la fin de la guerre de Corée. L’armée américaine a gavé un ordinateur de toutes les données, économiques, militaires, etc., relatives à la poursuite de la guerre avant de demander à la machine s’il valait la peine de poursuivre ou d’arrêter l’offensive. Heureusement, la machine, après quelques calculs, a tranché qu’il valait mieux cesser les hostilités. On a conséquemment mis un terme à la guerre. D’après Anders, c’est la première fois de l’histoire où l’humain s’est déchargé d’une décision aussi capitale pour s’en remettre plutôt à une machine. On peut dire qu’à partir de ce moment, l’humanité concède qu’elle est dépassée par la capacité de synthèse de la machine, avec ses supports mémoriels et sa vitesse de calcul supérieure – supraliminaire, dirait Anders, puisque débordant notre propre capacité de compréhension et nos propres sens. Selon la pensée cybernétique[8] qui se développera dans l’après-guerre, s’il s’avère que la machine exécute mieux certaines opérations, il vaut mieux se décharger, se délester, « extranéiser » ces opérations dans les systèmes. La machine est réputée plus fiable que l’humain.
Évidemment, à l’époque, nous avions affaire aux balbutiements de l’informatique et de la cybernétique. Aujourd’hui, à l’ère du développement effréné de l’intelligence artificielle et de la « quatrième révolution industrielle », nous sommes encore plus en danger de voir une part croissante des activités, orientations ou décisions être « déchargées » de l’esprit humain en direction des systèmes cybernétiques devenus les pilotes automatiques du monde. Il faut mesurer à quel point cela est doublement grave.
D’abord, du point de vue de l’éducation qui devait fabriquer le citoyen et la citoyenne dont la république avait besoin, et qui produira à la place un assisté mental dont l’action se limitera à donner l’input d’un « prompt[9]» et à recevoir l’output de la machine. Un étudiant qui fait un travail sur Napoléon en demandant à ChatGPT d’exécuter l’ensemble des opérations n’aura, finalement, rien appris ni rien compris. Mais il semble que cela n’est pas très grave et que l’enseignement doit aujourd’hui se réinventer en insistant davantage sur les aptitudes nécessaires pour écrire des prompts bien formulés ou en mettant en garde les étudiantes et étudiants contre les « hallucinations », les fabulations mensongères fréquentes des machines qui ont désormais pris le contrôle. « Que voulez-vous, elles sont là pour rester, nous n’avons pas le choix de nous adapter… », nous dit-on du côté de ceux qui choisissent de garnir les chaines de l’ignorance des fleurs de la « créativité », car c’est bien de cela qu’il s’agit : l’enseignement de l’ignorance comme l’a écrit Michéa[10], le décalage prométhéen comme programme éducatif et politique.
Deuxièmement, ce mouvement de déchargement vers la machine vient entièrement exploser l’idéal d’autonomie moderne individuelle et collective et réintroduire une forme d’hétéronomie : celle du capitalisme cybernétique autonomisé. Comme le remarque Bernard Stiegler, le passage du statut de mineur à celui de majeur, donc le devenir-adulte, est annulé : l’individu est maintenu au stade infantile et pulsionnel, puis branché directement sur la machine et le capital. Il y a donc complicité entre l’individu-tyran et le système une fois court-circuitées les anciennes médiations symboliques et politiques de l’ancienne société. Suivant une thèse déjà développée dans le néolibéralisme de Friedrich Hayek, notre monde serait, du reste, devenu trop complexe pour être compris par les individus ou orienté par la délibération politique : il faut donc confier au marché et aux machines informatiques/communicationnelles le soin de devenir le lieu de synthèse et de décision de la société à la place de la réflexivité politique. Or, ce système est caractérisé, comme le disait Freitag, par une logique d’expansion infinie du capital et de la technologie qui ne peut qu’aboutir à la destruction du monde, puisque sa logique d’illimitation est incompatible avec les limites géophysiques de la Terre, ce qui mène à la catastrophe écologique déjà présente. Cela conduit à une forme exacerbée de la banalité du mal comme absence de pensée théorisée par Hannah Arendt, cette fois parce que le renoncement à penser ce que nous faisons pour procéder plutôt à un délestage cognitif de masse mène dans les faits au suicide des sociétés à grande échelle à cause du totalitarisme systémique capitaliste-cybernétique. Nous passons notre temps devant des écrans pendant que le capitalisme mondialisé sur le « pilote automatique » nous fait foncer dans le mur de la crise climatique.
Accélérationnisme et transhumanisme
Ce mouvement de décervelage et de destruction de l’autonomie individuelle et collective au profit des systèmes ne relève pas seulement d’une dérive ou d’une mutation propre à la transition postmoderne. Il est aussi revendiqué comme projet politique chez les accélérationnistes, notamment ceux de la Silicon Valley. Une des premières figures de l’accélérationnisme est le Britannique Nick Land, ancien professeur à l’Université de Warwick, où il a fondé le Cybernetic Culture Research Unit (CCRU) dans les années 1990. Land dit s’inspirer de Marx (!), de Deleuze et Guattari, de Nietzsche et de Lyotard pour conclure que l’avenir n’est pas de ralentir ou de renverser le capitalisme, mais d’accélérer son processus de déterritorialisation. Cette idéologie favorise ainsi l’accélération du capitalisme, de la technologie et se dit même favorable au transhumanisme, à savoir la fusion – partielle ou totale – de l’humain avec la machine dans la figure du cyborg[11]. Après avoir quitté l’université, Nick Land, notamment à cause de son usage de drogues, sombre dans la folie et l’occultisme. Il devient également ouvertement raciste et néofasciste. Il disparait pour refaire surface plusieurs années plus tard en Chine, une société qui, selon lui, a compris que la démocratie est une affaire du passé et qui pratique l’accélérationnisme technocapitaliste. Ses idées sont par la suite amplifiées et développées aux États-Unis par Curtis Yarvin, proche de Peter Thiel, fondateur de PayPal. Cela a engendré un mouvement de la néo-réaction ou NRx qui combine des thèses accélérationnistes et transhumanistes avec la promotion d’une privatisation des gouvernements, une sorte de technoféodalisme en faveur de cités-États gouvernées par les PDG de la techno. Il s’agit donc d’un mouvement qui considère que la démocratie est nuisible, étant une force de décélération, un mouvement qui entend réhabiliter une forme de monarchisme 2.0 mélangé à la fascination technique. On pourrait dire qu’il s’agit d’une nouvelle forme de technofascisme.
Ajoutons qu’une partie des idées de Land et de Yarvin nourrit non seulement l’« alt-right », mais aussi des mouvements ouvertement néonazis dont la forme particulière d’accélérationnisme vise à exacerber les contradictions raciales aux États-Unis pour mener à une société posteffondrement dominée par le suprémacisme blanc. Il existe également une forme d’accélérationnisme de gauche, associé à une figure comme celle de Mark Fisher, qui prétend conserver l’accélération technologique sans le capitalisme. Mais la majeure partie du mouvement est à droite, allant de positions anciennement libertariennes jusqu’à des positions néoautoritaires, néofascistes, transhumanistes ou carrément néonazies. Cette nébuleuse accélérationniste inspire les nouveaux monarques du technoféodalisme de la Silicon Valley, les Peter Thiel, Elon Musk, Mark Zuckerberg et Marc Andreesen[12]. Ceux-ci pensent que l’humain doit fusionner avec l’IA pour ensuite aller coloniser Mars, la Terre étant considérée comme écologiquement irrécupérable. Il n’est donc pas suffisant de parler d’un projet de scénarisation de l’humain par la machine au moyen du délestage cognitif, puisque ce qui est en cause dans le projet accélérationniste et transhumaniste implique carrément la fin de l’humanité telle qu’on l’entendait jusqu’ici. L’anti-humanisme radical doit être entendu littéralement comme un projet de destruction de l’humanité. Il s’agit d’un projet de classe oligarchique et eugéniste qui entend bien donner tout le pouvoir à une nouvelle « race » de surhommes riches et technologiquement augmentés dont le fantasme est de tromper la mort par le biais de la technique pour pouvoir jouir de leur fortune éternellement, à tel point qu’ils modifient actuellement les lois aux États-Unis pour pouvoir déshériter leur descendance et contrôler leurs avoirs éternellement lorsque la technologie les aura rendus immortels…
L’oubli de la société
Ce délire se déroule aussi sur fond « d’oubli de la société », comme le disait Michel Freitag[13], à savoir qu’il implique la destruction des anciennes médiations culturelles et symboliques aussi bien que celle des anciennes sociétés, comprises comme totalités synthétiques ou universaux concrets. Marcel Rioux l’avait déjà remarqué dans les années 1960, l’impérialisme technocapitaliste étatsunien conduit à la liquidation de la langue, de la culture et de la société québécoise. Du reste, comme le souligne Freitag, le fait d’être enraciné dans un lieu et un temps concret est remplacé par un déracinement qui projette le néosujet dans l’espace artificiel des réseaux informatiques ou de la réalité virtuelle. Du point de vue de l’éducation, à quoi sert-il alors de transmettre la culture, la connaissance du passé, les repères propres à cette société concrète ou à son identité, du moment qu’on ne nait plus dans une société, mais dans un réseau ? La médiation technologique et les écrans, en tant que technologie de disruption, viennent contourner les anciennes médiations et le processus d’individuation qu’elles encadraient, produisant des individus socialisés ou institués par les machines. Il devient alors beaucoup plus important d’anticiper l’accélération future et d’enseigner à s’y adapter, beaucoup plus important que d’expliquer le monde commun et sa genèse historique. De ce point de vue, l’ancien instituteur, « hussard noir de la République[14] », doit être remplacé par un professeur branché qui s’empresse d’intégrer les machines à sa classe, ou carrément par ChatGPT ou par un quelconque tuteur-robot. Ainsi la boucle serait complète : des individus formés par des machines pour vivre dans une société-machine, où l’ancienne culture et l’ancienne société auraient été remplacées par la cybernétique.
Une aliénation totale
Nous l’avons dit : les jugements enthousiastes sur cette époque sont généralement posés sans égard au corpus de la théorie critique ou de la philosophie de la technique. Il nous semble au contraire qu’il faille remobiliser le concept d’aliénation pour mesurer la dépossession et la perte qui s’annoncent en éducation, pour les étudiants, les étudiantes, les professeur·e·s, aussi bien que pour la société ou l’humanité en général. L’aliénation implique un devenir étranger à soi. En allemand, Marx emploie tour à tour les termes Entaüsserung et Entfremdung, extériorisation et extranéiation. La combinaison des deux résume bien le mouvement que nous avons décrit précédemment, à savoir celui d’une extériorisation de l’humanité dans des systèmes objectivés à l’extérieur, mais qui se retournent par la suite contre le sujet. Celui-ci se trouve alors non seulement dépossédé de certaines facultés cognitives, mais en plus soumis à une logique hétéronome d’aliénation qui le rend étranger à lui-même, à sa pratique, à autrui, à la nature et à la société – comme l’avait bien vu Marx –, sous l’empire du capitalisme et du machinisme. Le sujet se trouve alors « privé de monde[15] » par un processus de déshumanisation et de « démondanéisation ». Ce processus concerne aussi bien la destruction de la société et de la nature que celle de l’humanité à travers le transhumanisme. Nous pouvons ainsi parler d’une forme d’aliénation totale[16] – ou totalitaire – culminant dans la destruction éventuelle de l’humanité par le système technocapitaliste. Ajoutons que le scénario d’une IA générale (AGI, artificial general intelligence) ou de la singularité[17] est évoqué par plusieurs figures crédibles (Stephen Hawking, Geoffrey Hinton, etc.) comme pouvant aussi conduire à la destruction de l’humanité, et est comparé au risque de l’arme nucléaire. L’enthousiasme et la célébration de l’accélération technologique portés par les idéologues et l’idéologie dominante apparaissent d’autant plus absurdes qu’ils ignorent systématiquement ces mises en garde provenant pourtant des industriels eux-mêmes. Sous prétexte d’être proches des générations futures, soi-disant avides de technopédagogie, on voit ainsi des adultes enfoncer dans la gorge de ces jeunes un monde aliéné et courant à sa perte, un monde dont ils et elles ne veulent pourtant pas vraiment lorsqu’on se donne la peine de les écouter, ce dont semblent incapables nombre de larbins de la classe dominante et de l’accélérationnisme technocapitaliste, qui ont déjà pressenti que leur carrière actuelle et future dépendait de leur aplaventrisme devant le pouvoir, quitte à tirer l’échelle derrière eux dans ce qu’il convient d’appeler une trahison de la jeunesse.
Conclusion : réactiver le projet socialiste
Nous avons montré précédemment que l’extension du capitalisme cybernétique conduit à des dégâts : psychologiques, pédagogiques, développementaux, sociaux/relationnels. Nous avons montré que le problème est beaucoup plus large, et concerne, d’une part, le déchargement de la cognition et du jugement dans des systèmes extérieurs. D’autre part, il participe de la mise en place d’un projet politique technocapitaliste, celui d’une société postmoderne du « tout à distance » gérée par les systèmes, ce qui signifie la liquidation de l’idéal d’autonomie politique moderne. Cela entraine bien sûr des problèmes en éducation : formation d’individus poussés à s’adapter à l’accélération plutôt que de citoyens éclairés, fin de la transmission de la culture et de la connaissance, oubli de la société, etc. Plus gravement, cela participe d’une dynamique d’aliénation et de destruction du rapport de l’individu à lui-même, aux autres, à la nature et à la société. Ce processus culmine dans le transhumanisme et la destruction potentielle aussi bien de l’humain que de la société et de la nature si la dynamique accélérationniste continue d’aller de l’avant. Ce qui est menacé n’est donc pas seulement l’éducation, mais la transmission même du monde commun à ceux qu’Arendt appelait les « nouveaux venus », puisque ce qui sera transmis sera un monde de plus en plus aliéné et en proie à une logique autodestructive. Les Grecs enseignaient, notamment dans le serment des éphèbes, que la patrie devait être donnée à ceux qui suivent en meilleur état que lorsqu’elle avait été reçue de la génération antérieure. Les générations actuelles laissent plutôt un monde dévasté et robotisé, tout en privant celles qui viennent des ressources permettant de le remettre sur ses gonds.
Il convient évidemment de résister à ces transformations, par exemple en luttant localement pour défendre le droit à une éducation véritable contre la double logique de la marchandisation et de l’automatisation-robotisation. On peut encore réclamer de la régulation de la part des États, mais il est assez évident aujourd’hui que le développement de l’IA a le soutien actif des États – « comité de gestion des affaires de la bourgeoisie », disait Marx. Mais il faut bien comprendre que seule une forme de société postcapitaliste pourra régler les problèmes d’aliénation évoqués ci-haut. Il sera en effet impossible de démarchandiser l’école et de la sortir de l’emprise de la domination technologique sans remettre en question la puissance de ces logiques dans la société en général.
Depuis le XIXe siècle, la réaction à la destruction sociale engendrée par l’industrialisation a trouvé sa réponse dans le projet socialiste[18], qu’il s’agisse de la variante utopique, marxiste ou libertaire. On trouve aussi aujourd’hui des approches écosocialistes, décroissancistes ou communalistes[19]. Cette dernière approche, inspirée par l’écologie sociale de Murray Bookchin, préconise la construction d’une démocratie locale, écologique et anti-hiérarchique. Ce sont là différentes pistes pouvant nourrir la réflexion sur la nécessaire reprise de contrôle des sociétés sur l’économie et la technologie, dont la dynamique présente d’illimitation est en train de tout détruire. Cela laisse entière la question du type d’éducation qui pourrait favoriser la formation des citoyennes et citoyens communalistes dont le XXIe siècle a besoin. Chose certaine, il faudra, à rebours de ce que nous avons décrit ici, que cette éducation favorise l’autonomie, la sensibilité, la compassion, l’altruisme; qu’elle donne un solide enracinement dans la culture et la société, qu’elle apporte une compréhension de la valeur et de la fragilité du vivant et de la nature. Bref, elle devra former des socialistes ou des communalistes enracinés au lieu de l’aliénation et du déracinement généralisé actuels.
Par Eric Martin, professeur de philosophie, Cégep St-Jean-sur-Richelieu
NOTES
- Ce type de technologie cause un bouleversement profond dans les pratiques du champ où elle apparait. ↑
- Franck Fischbach, La privation de monde. Temps, espace et capital, Paris, Vrin, 2011. ↑
- Carolyne Labrie, « Les cégépiens ne veulent plus d’enseignement à distance », Le Soleil, 27 février 2023. ↑
- Pour un développement détaillé de ces constats, voir Eric Martin et Sebastien Mussi, Bienvenue dans la machine. Enseigner à l’ère numérique, Montréal, Écosociété, 2023. ↑
- Naomi Klein, « How big tech plans to profit from the pandemic », The Guardian, 13 mai 2020. ↑
- Eric Sadin, L’intelligence artificielle ou l’enjeu du siècle. Anatomie d’un anti-humanisme radical, Paris, L’Échappée, 2021. ↑
- « L’intelligence artificielle, une menace ou un nouveau défi à l’enseignement ? », La tête dans les nuances, NousTV, Mauricie, 29 mai 2023. ↑
- Céline Lafontaine, L’Empire cybernétique. Des machines à penser à la pensée machine, Paris, Seuil, 2004. ↑
- NDLR. Prompt : il s’agit d’une commande informatique destinée à l’utilisateur ou l’utilisatrice lui indiquant comment interagir avec un programme, ou dans le cas de ChatGPT, des instructions envoyées à la machine pour lui permettre de faire ce qu’on lui demande. ↑
- Jean-Claude Michéa, L’enseignement de l’ignorance et ses conditions modernes, Castelnau-le-Lez, Climats, 2006. ↑
- NDLR. Cyborg (mot formé de cybernetic organism) : personnage de science-fiction ayant une apparence humaine, composé de parties vivantes et de parties mécaniques. ↑
- Marine Protais, « Pourquoi Elon Musk et ses amis veulent déclencher la fin du monde », L’ADN, 20 septembre 2023. ↑
- Michel Freitag, L’oubli de la société. Pour une théorie critique de la postmodernité, Québec, Presses de l’Université Laval, 2002. ↑
- En 1913, l’écrivain français Charles Péguy qualifie les instituteurs de « hussards noirs ». Combatifs et engagés, ils défendent l’école de la République.
- Fischbach, La privation de monde, op. cit. ↑
- Voir la présentation de Gilles Labelle lors du séminaire du Collectif Société sur l’ouvrage Bienvenue dans la machine, UQAM, 28 avril 2023. ↑
- D’après Wikipedia, « La singularité technologique (ou simplement la Singularité) est l’hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d’intelligence », débouchant sur une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine ». Cette thèse est notamment défendue par le futurologue transhumaniste Ray Kurzweil. ↑
- Jacques Dofny, Émile Boudreau, Roland Martel et Marcel Rioux, « Matériaux pour la théorie et la pratique d’un socialisme québécois », article publié dans la revue Socialisme 64, Revue du socialisme international et québécois, n° 1, printemps 1964, p. 5-23. ↑
- Eric Martin, « Communalisme et culture. Réflexion sur l’autogouvernement et l’enracinement », Nouveaux Cahiers du socialisme, n° 24, automne 2020, p. 94-100. ↑

L’intelligence artificielle, une puissance médiocre

Today, we pose this question to new powers
Making bets on artificial intelligence, hope towers
The Amazonians peek through
Windows blocking Deep Blues
As Faces increment scars
Old burns, new urns
Collecting data chronicling our past
Often forgetting to deal with
Gender race and class, again I ask
« Ain’t I a woman? »
– Joy Buolamwini, AI, Ain’t I A Woman ?[1]
Alors qu’il y a une quinzaine d’années, les jeunes loups de la Silicon Valley ne cessaient de répéter que les développements de l’industrie de l’intelligence artificielle (IA) promettaient « d’amener un monde meilleur[2] », le discours du milieu est beaucoup plus dramatique aujourd’hui. Dans une récente émission spéciale de Radio-Canada sur l’intelligence artificielle, le chercheur montréalais Yoshua Bengio affirmait :
À partir du moment où on aurait des systèmes d’intelligence artificielle qui sont généralement beaucoup plus intelligents que nous, comment on fait pour les contrôler ? […] Il n’y a pas d’exemple dans l’histoire d’espèce qui contrôle une autre espèce qui serait plus intelligente[3].
Pourquoi les leaders d’une industrie mettent-ils autant d’efforts à nous avertir de potentielles menaces que leurs propres produits font peser sur les sociétés ? Dans une entrevue du balado Tech won’t save us, la linguiste Emily Bender propose quelques éléments d’explication à ce curieux phénomène : si les problèmes à caractère apocalyptique « sont aussi attirants », c’est parce ces leaders « préfèrent réfléchir à un « méchant » imaginaire comme on en retrouve dans la science-fiction […] plutôt que de regarder leur propre rôle dans les préjudices observés aujourd’hui[4] ». On pourrait ajouter que ce type de discours vient aussi renforcer l’apparence d’inéluctabilité de ces technologies.
Le travail de critique des développements en intelligence artificielle doit donc éviter un piège majeur, celui de contribuer à l’engouement autour de l’IA en lui attribuant des capacités qu’elle n’a pas réellement. Les discours critiques évoquant les risques d’une domination totale d’un technocapitalisme d’une grande efficience sur des individus qui ont perdu toute agentivité risquent fort d’entretenir à leur manière ce mythe de l’IA surpuissante, en plus de négliger les effets tangibles des systèmes actuellement déployés sur des populations déjà marginalisées.
Dans cet article, je soutiens au contraire que la critique de l’IA doit plutôt mettre en lumière la médiocrité de cette dernière. Le terme peut sembler fort, il est vrai qu’il existe plusieurs types d’IA, et clairement, certaines innovations s’avèrent étonnamment efficaces pour répondre à des objectifs circonscrits, comme le fait l’informatique depuis plusieurs décennies. Cependant, en dernière analyse, les luttes qui nous attendent se situent dans le prolongement de celles qui nous occupent déjà depuis longtemps, soit une résistance au capitalisme, à l’hétéropatriarcat, au racisme et au colonialisme.
« l’IA n’est pas artificielle et elle n’est pas intelligente [5] »
Il n’y a pas d’intelligence dans l’intelligence artificielle. De manière générale, on fait plutôt face à des développements informatiques qui ont permis à des algorithmes de repérer des occurrences dans d’énormes masses de données et de faire des prédictions sur cette base. Pour décrire les modèles de langage comme ChatGPT, Emily Bender a popularisé l’expression de « perroquet stochastique » (stochastic parrot [6]). Le terme « stochastique» fait référence à ce qui est généré à partir de variations aléatoires; autrement dit, ChatGPT est un baratineur. Des féministes l’ont aussi comparé à ces hommes qui parlent avec une grande assurance de sujets qu’ils ne maitrisent à peu près pas. Cela ne veut pas dire, par ailleurs, que ChatGPT n’a aucune utilité : par exemple, il est possible de synthétiser des textes ou de produire des tableaux à partir de bases de données. Il est néanmoins judicieux d’éviter d’exagérer ses capacités.
Il faut toujours garder à l’esprit tout ce qu’une intelligence dite « artificielle » vient puiser – piller, en termes clairs – et ce, tant au sein de nos sociétés que dans l’environnement. Les documents publiés dans le cadre de la poursuite du New York Times contre ChatGPT montrent que certains passages sont pratiquement du « copier-coller » d’articles publiés par le journal. ChatGPT repose également sur le travail d’employé·es du Kenya qui ont dû tracer la ligne entre le contenu acceptable et les propos haineux et violents, au prix de leur santé mentale et pour un salaire de 2 $ l’heure. Le magazine Time rapporte que cette tâche a causé un nombre de traumas si important au sein de la force de travail que la firme sous-traitante Sama a mis fin au contrat avec OpenAI huit mois plus tôt que prévu[7]. Ce genre de « nettoyage des données » est nécessaire pour plusieurs systèmes en vogue aujourd’hui. Quant aux impacts environnementaux, on a déjà des chiffres éloquents : l’IA générative a fait bondir la consommation d’eau chez Microsoft, propriétaire d’OpenAI qui a développé ChatGPT, de 34 % entre 2021 et 2022[8].
En dépit de tous ces effets négatifs et malgré des investissements considérables, l’IA demeure souvent médiocre. Les exemples abondent. Après des années, voire des décennies, d’annonces de l’arrivée imminente des voitures autonomes pour le public, celles-ci sont toujours « en route vers nulle part », selon Christian Wolmar, journaliste britannique spécialisé dans les enjeux de transport : « Les entreprises des technos ont constamment sous-estimé la difficulté à égaler, sans parler d’améliorer, les aptitudes de conduite des humains[9] ».
Poursuivons avec d’autres exemples, d’abord concernant la désinformation par les fameux hypertrucages (deepfakes). On présente souvent le risque d’une guerre qui serait déclenchée par une fausse déclaration de la part de Vladimir Poutine ou de Joe Biden, mais la personne attentive remarquera qu’aucun article portant ces avertissements nefournit d’exemple tangible où un tel trucage a produit un effet politique significatif sur une société. Plus largement, la désinformation en ligne a plutôt tendance à renforcer les opinions de personnes déjà sensibles au message politique véhiculé; autrement dit, celles et ceux qui y adhèrent veulent souvent déjà y croire. Pour le reste, les hypertrucages et les fausses nouvelles ont surtout comme effet de généraliser le doute et la méfiance à l’égard de ce qui nous est présenté, ce qui est à l’opposé des capacités qu’on attribue à ces procédés, à savoir faire croire à son authenticité[10].
Qu’en est-il des algorithmes des médias sociaux ? La recherche sur les fameuses « chambres d’écho » dans lesquelles les internautes risqueraient d’être « coincé·es » est loin d’être concluante. Le journaliste scientifique Jean-François Cliche présentait récemment des recherches montrant que « non seulement la plupart des gens sont exposés à toutes sortes de vues, mais ils s’engagent aussi sciemment dans des échanges avec des personnes aux convictions opposées[11] ». Les algorithmes des médias sociaux ne sont pas programmés et calibrés pour nous offrir ce qui correspond à nos intérêts et croyances, mais plutôt pour présenter du contenu qui nous garde sur le site afin d’accumuler des données à notre sujet et nous offrir de la publicité ciblée, ce qui n’est pas la même chose. À la limite, on pourrait comparer le scrolling, le défilement du contenu d’un écran, des années 2020 au zapping des années 1990 : on se demande, une heure plus tard, pourquoi on a perdu un tel temps à regarder du contenu aussi insignifiant…
Terminons avec le cas de la reconnaissance faciale. Il est loin d’être clair que la vidéosurveillance assistée par les algorithmes est si efficace. Entre 2017 et 2021, en prévision des Jeux olympiques de Paris, la Société nationale des chemins de fer français (SNCF) a testé 19 logiciels de vidéosurveillance algorithmique : seuls 9 ont eu une performance supérieure à 50 %[12]. En 2018, il a été divulgué que le système de reconnaissance faciale utilisé par la Metropolitan Police de Londres avait produit 98 % de faux positifs : seules 2 alertes sur 104 étaient correctes[13]. Israël est un leader des technologies de surveillance, y compris celles de reconnaissance faciale, mais cela n’a aucunement été utile pour prévenir les attaques du Hamas le 7 octobre 2023.
« L’IA est basée sur les données, et les données sont un reflet de notre histoire[14] »
À la lecture de ces exemples, on sera peut-être tenté de répondre : « Bien sûr, l’IA fait des erreurs, mais c’est parce que nous sommes seulement aux débuts de son développement ! » Mais en disant cela, ne sommes-nous pas en train de reprendre les arguments de vente de l’industrie ? Pour paraphraser le philosophe Hubert Dreyfus qui critiquait déjà les prétentions des chercheurs en intelligence artificielle dans les années 1970, ce n’est pas parce qu’on a atteint le sommet de la tour Eiffel qu’on est plus près d’atteindre la Lune…
Certes, l’IA actuelle permet des prouesses étonnantes et annonce plusieurs changements dans nos vies, notamment dans divers secteurs du travail. Mais, comme le dit Hubert Guillaud, « l’IA vise à accélérer la prise de décision bien plus qu’à l’améliorer[15] ». Il s’agit souvent de faire des gains de productivité à l’aide de logiciels qui simulent ou surveillent l’activité humaine avec une efficacité variable, faisant ainsi pression sur la force de travail. Ces bouleversements sont plus terre-à-terre que les menaces existentielles du style de La Matrice[16], mais ils font pourtant partie de ceux qui doivent réellement nous préoccuper. Même une IA aux capacités restreintes peut causer des dégâts considérables; on rejoint ici les préoccupations d’André Gorz pour qui les innovations technologiques doivent être développées dans une optique d’allègement du travail et d’augmentation de l’autonomie.
Cela étant, la soi-disant intelligence artificielle comporte des limites majeures dont rien n’indique qu’elles pourront un jour être dépassées. D’abord, les accomplissements issus des réseaux neuronaux et de l’apprentissage profond, contrairement à ce que ces termes laissent entendre, ne signifient pas que ces systèmes possèdent les capacités de saisir le sens des créations humaines. L’IA ne comprend pas ce qu’elle voit et ne fait pas preuve de créativité : elle fournit des réponses et des prédictions de manière probabiliste, sur la base des données qui lui ont été fournies. En dernière analyse, l’IA contemporaine soulève une question épistémologique : qu’est-ce que les données nous concernant, si vastes et intrusives sont-elles, saisissent véritablement de ce que nous sommes ? Jusqu’à quel point peut-on traduire les émotions, aspirations, craintes et espoirs d’un être humain en données chiffrées ou en code informatique ?
Il y a une autre limite structurelle à l’IA actuelle : puisque les générateurs de langage ou d’images et les algorithmes d’aide à la prise de décision s’appuient inévitablement sur des données du passé, cela leur donne un biais, un angle, éminemment conservateur. Ils tendent à reproduire les iniquités, stéréotypes, dominations et oppressions déjà présents dans nos sociétés, en leur donnant un vernis « neutre » parce que « mathématique ».
Ici aussi, les exemples sont nombreux. La chercheuse et militante Joy Buolamwini a bien démontré que plusieurs logiciels de reconnaissance faciale sont très inefficaces pour identifier ou même simplement repérer les visages des personnes noires[17]. Les six cas d’arrestations erronées basées sur la reconnaissance faciale répertoriés par l’American Civil Liberties Union impliquent tous des personnes noires[18].
Les logiciels de prédiction de la criminalité posent le même genre de problèmes. Aux États-Unis, ces systèmes de décision automatisés peuvent assister la police en indiquant où patrouiller sur la base de données passées, ou encore peuvent aider des juges à évaluer les risques de récidive afin de déterminer la caution ou les conditions de probation d’individus.
Or, sachant que les systèmes judiciaires et policiers occidentaux sont fortement imprégnés de racisme et de classisme systémiques – certains quartiers étant sur-surveillés par rapport à leur taux de criminalité réel ou certains groupes condamnés étant l’objet de peines et de conditions plus sévères en raison de préjugés du système judiciaire –, les logiciels s’appuyant sur de telles données tendent à reproduire ces inégalités et injustices[19].
Il en est de même lorsque des compagnies de crédit ou d’assurance assignent un classement aux individus pour déterminer leur solvabilité ou leur niveau de risque : une personne avec un dossier sans faille peut voir celui-ci dénaturé par le recours à des probabilités basées sur les dossiers de personnes aux caractéristiques sociales similaires. C’est aussi le cas pour les admissions universitaires ou collégiales, pour l’attribution d’un logement social, pour l’embauche et les évaluations au travail[20]… Bref, on risque de renforcer des formes automatisées de ségrégation économique, genrée ou raciale effectuées par des systèmes qualifiés d’intelligents.
« L’IA étroite se résume à des mathématiques[21] »
Le mythe d’une IA surpuissante, redoutablement efficace, incontrôlable et menaçante est tenace. Du Frankenstein de Mary Shelley aux récits glaçants de la série Black Mirror, en passant par 2001 : l’odyssée de l’espace et les films Terminator, on constate une propension récurrente à fantasmer des machines qui dépassent, voire asservissent, l’être humain.
Ce mythe n’est pas seulement entretenu par des œuvres de fiction. Il est frappant de constater aujourd’hui des points de convergence entre les avertissements lancés par les gourous de l’univers des technos et certains discours critiques de l’IA, notamment les craintes à l’égard d’une domination totale d’une forme technologique sur les vies humaines. Alors que le chercheur Yoshua Bengio s’inquiète d’une IA qui aurait de tels désirs d’autopréservation qu’on ne pourrait plus la débrancher – « Si elle raisonne un peu, elle va se rendre compte qu’un humain pourrait effectivement la débrancher. Que fera-t-elle ? Elle pourrait se dupliquer sur d’autres machines[22] » –, le philosophe Eric Martin entrevoit « notre enfermement aliénant dans le monde forclos du jugement-machine et du capitalisme automatisé, un “monde sans humains” où nous n’aurons pas disparu, mais serons devenus les objets de machines-sujets qui penseront à notre place[23] ». Pour son collègue Maxime Ouellet, « la capacité de la praxis sociale d’instituer des normes […] se trouve anéantie » par les algorithmes et les big data, « [en] modelant la régulation sociale sur l’anticipation de l’action des sujets[24] ».
Ces perspectives critiques posent plusieurs problèmes. D’abord, en surestimant les capacités de l’IA, on entretient le discours actuel de légitimation de l’industrie. Ensuite, les inquiétudes concernant un « futur plus ou moins proche » éveillent des fantasmes dystopiques enivrants, mais nous amènent à négliger les problèmes moins glamour que l’IA pose dès maintenant : par exemple, à l’heure actuelle les hypertrucages servent davantage à dénuder des femmes sans leur consentement qu’à perturber des campagnes électorales. Troisièmement, en opposant l’IA – ou les robots ou les machines – à l’Humanité avec un grand H, on tend à laisser de côté les effets négatifs plus prononcés de ces technologies sur les groupes de la population qui sont déjà davantage opprimés, exploités et marginalisés. Enfin, en postulant que ce développement technologique amène notre société dans une ère totalement inédite, on tend à sous-estimer la capacité de l’IA à reconduire sous un nouveau visage des formes de domination anciennes et connues.
Ce n’est d’ailleurs pas une coïncidence si les critiques que j’ai amenées dans cet article sont issues en grande majorité du travail de femmes racisées telles que Joy Buolamwini, Timnit Gebru, Safiya Noble et Meredith Broussard[25]. Or, certaines analyses nous invitent plutôt à entrevoir les perspectives critiques féministes et antiracistes de l’IA comme une simple extension de la sphère de l’éthique libérale, qui chercherait essentiellement à améliorer ces systèmes. En d’autres termes, ces critiques ne seraient pas porteuses de radicalité. Par exemple, Eric Martin écrit :
Dans la nouvelle éthique sans politique contemporaine, […] les seules questions autorisées ne concernent pas le caractère désirable du développement des robots, mais portent sur la manière de les programmer afin qu’ils ne soient pas sexistes ou racistes. On s’attaquera ainsi aux problèmes par le petit bout de la lorgnette, ce qui évitera de poser d’importantes questions sur le plan macrosociologique, à savoir par exemple que le développement du capitalisme détruit aussi bien les sociétés que la nature. Il y a donc, dit Castoriadis, « abandon du décisif au profit du trivial », et parler de ce dernier à profusion servira commodément d’écran médiatico-spectaculaire pour faire oublier la totale soumission sur le plan du premier[26].
Je partage les critiques d’Eric Martin selon lesquelles l’éthique libérale sert effectivement de légitimation aux développements de l’industrie, particulièrement à Montréal où l’éthique est devenue un élément central de l’image de marque de l’IA locale. Cependant, il m’apparait curieux de considérer que la déconstruction des systèmes d’oppression patriarcale et raciale serait « triviale » alors que ceux-ci concernent la grande majorité de la population de la planète.
Par ailleurs, il est erroné de prétendre que la critique féministe et antiraciste de l’IA se contente d’accompagner l’expansion du capitalisme en lui donnant un visage diversitaire ou woke, comme le veut la terminologie réactionnaire de notre époque. Observons par exemple le travail militant de l’Algorithmic Justice League (AJL) fondée par Buolamwini. L’organisation a pour objectif de sensibiliser la population et les élu·es aux biais et autres méfaits que peut amener l’IA. Leur site Web présente en détail leurs perspectives de lutte. On y explique par exemple que :
la justice requiert qu’on empêche l’IA d’être utilisée par les personnes au pouvoir pour augmenter leur niveau absolu de contrôle, particulièrement s’il s’agit d’automatiser des pratiques d’injustice bien ancrées historiquement, telles que le profilage racial par les forces policières, les biais sexistes à l’embauche et la sur-surveillance de communautés immigrantes. La justice implique de protéger les personnes ciblées par ces systèmes[27].
On y trouve également une critique de l’éthique en intelligence artificielle :
L’utilisation de l’éthique n’est pas en soi problématique, mais a mené à la prolifération de « principes en IA » avec peu de moyens pour les appliquer en pratique. […] De notre point de vue, il s’agit d’une approche limitée, parce qu’elle ne crée pas d’obligations ou n’interdit pas certains usages de l’IA. […] Si nous nous soucions uniquement de faire des améliorations aux jeux de données et aux processus informatiques, nous risquons de créer des systèmes techniquement plus précis, mais également plus susceptibles d’être utilisés pour de la surveillance massive et d’accentuer des pratiques policières discriminatoires[28].
Ainsi, on voit qu’une critique féministe et antiraciste peut très bien s’inscrire dans une perspective abolitionniste face à certains développements technologiques et nourrir une dénonciation radicale du capitalisme.
Surtout, ce genre d’ancrage permet de mettre en lumière que ces développements techniques s’inscrivent dans l’histoire plus générale de la science, et de la manière dont une science médiocre a pu s’articuler à des visées de domination et d’exploitation. Comme le dit Cory Doctorow, « le racisme scientifique est parmi nous depuis des siècles[29] ». Au XIXe siècle, la phrénologie prétendait pouvoir identifier le caractère d’une personne, et notamment sa propension à la criminalité, à partir de la forme de son crâne. Au tournant du XXe siècle, des mathématiciens de renom ont participé à la fondation des statistiques telles qu’on les connait parce qu’elles permettaient d’escamoter leurs conclusions eugénistes derrière un paravent prétendument objectif[30]. Aujourd’hui, des chercheurs publient des articles dans des revues scientifiques prestigieuses dans lesquelles ils affirment que des systèmes d’intelligence artificielle leur permettent d’identifier l’orientation sexuelle ou les affiliations politiques d’un individu à partir de simples photos du visage[31].
Si la science et la technique médiocres ont fréquemment été des instruments de domination et d’exploitation, cette perspective historique permet aussi de nourrir l’espoir : la mauvaise science et la mauvaise technique peuvent être contestées et rejetées. Au-delà de la technologie elle-même, le problème est ultimement politique : ce dont il est question, c’est du pouvoir qui mobilise l’IA, du pouvoir que l’IA permet de développer sur les populations et du pouvoir qu’il nous faut construire pour se l’approprier ou l’abolir.
Par Philippe de Grosbois, professeur en sociologie au Collège Ahuntsic
NOTES
- Joy Buolamwini, AI, Ain’t I A Woman ?, YouTube, 28 juin 2018. Ain’t I a Woman? est un discours prononcé par la féministe afro-américaine Sojourner Truth en 1851. Traduction littérale du poème par la rédaction :
Aujourd’hui, nous posons cette question à de nouvelles puissances
Nous parions sur l’intelligence artificielle, tours d’espoir.
Les Amazoniens jettent un coup d’œil à travers
les fenêtres (Windows) bloquant les bleus profonds (Deep Blues)
alors que les visages augmentent (increment) les cicatrices.
De vieilles brûlures, de nouvelles urnes
Collecte de données retraçant notre passé
Oubliant souvent de traiter du genre, de la race et de la classe, je demande à nouveau
« Ne suis-je pas une femme ? » ↑ - « Make the world a better place » : c’est une formule répétée comme un mantra et ridiculisée par la série humoristique Silicon Valley. ↑
- « Émission spéciale : L’intelligence artificielle décodée », Radio-Canada Info, 7 décembre 2023, 89e et 90e minutes. ↑
- « ChatGPT is not intelligent, Emily M. Bender », Tech Won’t Save Us, 13 avril 2023, 51e minute. Ma traduction. ↑
- Cory Doctorow, « The AI hype bubble is the new crypto hype bubble », Pluralistic, 9 mars 2023. Ma traduction. ↑
- Elizabeth Weil, « You are not a parrot and a chatbot is not a human. And a linguist named Emily Bender is very worried what will happen when we forget this », New York Magazine, 1er mars 2023. ↑
- Billy Perrigo, « OpenAI used kenyan workers on less than $2 per hour to make chatGPT less toxic », Time, 18 janvier 2023. ↑
- Nastasia Michaels, « 6,4 milliards de litres pour Microsoft : l’IA générative a-t-elle fait exploser la consommation d’eau des géants de la tech ? », Geo, 12 septembre 2023. ↑
- Christian Wolmar, « Driverless cars were the future but now the truth is out : they’re on the road to nowhere », The Guardian, 6 décembre 2023. Ma traduction. ↑
- J’ai développé davantage ces idées dans le livre La collision des récits. Le journalisme face à la désinformation, Montréal, Écosociété, 2022. ↑
- Jean-François Cliche, « Avons-nous tout faux sur les bulles Facebook? », Québec Science, 12 janvier 2023. Voir aussi Laurent Cordonier et Aurélien Brest, « Comment les Français choisissent-ils leurs médias? », The Conversation, 22 mai 2023. ↑
- Jean-Marc Manach, « 50 % des algorithmes de vidéosurveillance testés par la SNCF jugés “insatisfaisants” », Next, 4 janvier 2024. ↑
- Jon Sharman, « Metropolitan Police’s facial recognition technology 98 % inaccurate, figures show », The Independent, 13 mai 2018. ↑
- Phrase de Joy Buolamwini, dans le documentaire de Shalini Kantayya, Coded Bias, États-Unis, 7th Empire Media, 2020, 6e minute. ↑
- Hubert Guillaud, « L’IA vise à accélérer la prise de décision, bien plus qu’à l’améliorer! », InternetActu, 6 janvier 2022. ↑
- NDLR. Film de science-fiction australo-américain sorti en 1999 qui dépeint un futur dans lequel la plupart des humains perçoivent la réalité à travers une simulation virtuelle, étant connectés à la « Matrice », créée par des machines douées d’intelligence afin de les asservir. ↑
- Voir le documentaire Coded Bias, op. cit. ↑
- « Meet Porcha Woodruff, Detroit woman jailed while 8 months pregnant after false AI facial recognition », Democracy Now!, 9 août 2023. ↑
- Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine bias », ProPublica, 23 mai 2016. Voir aussi Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023, p. 208-226. ↑
- On trouvera plusieurs exemples documentés de ces phénomènes dans le livre de Cathy O’Neil, Weapons of Math Destruction, New York, Crown, 2016. ↑
- Phrase de Meredith Broussard dans Coded Bias, op. cit. ↑
- Philippe Mercure, « Convaincs-moi… que l’intelligence artificielle menace l’humanité », La Presse, 12 septembre 2023. ↑
- Eric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société, n° 3, 2021, p. 216. ↑
- Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 225-226. ↑
- Voir notamment Joy Buolamwini, Unmasking AI, New York, Random House, 2023 ; Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, New York University Press, 2018 ; Meredith Broussard, Artificial Unintelligence, MIT Press, 2019. Pour un portrait de plusieurs de ces chercheuses, voir Lorena O’Neil, « These women tried to warn us about IA », RollingStone, 12 août 2023. ↑
- Eric Martin, op. cit., p. 205. Je souligne. ↑
- The Algorithmic Justice League, Learn more. Ma traduction. ↑
- Ibid. Ma traduction. ↑
- Cory Doctorow, « Machine learning is a honeypot for phrenologists », Pluralistic, 15 janvier 2021. Ma traduction. ↑
- Voir Aubrey Clayton, « How eugenics shaped statistics », Nautilus, 27 octobre 2020. ↑
- Voir Catherine Stinson, « The dark past of algorithms that associate appearance and criminality », Scientific American, vol. 109, n° 1, 2021, et Cory Doctorow, « Machine learning… », op. cit. ↑

L’intelligence artificielle et les algorithmes : au cœur d’une reconfiguration des relations internationales capitalistes

Dans cet article, nous explorons certaines reconfigurations de l’économie politique des relations internationales dans la foulée de l’avènement de nouveaux modes d’exploitation et d’expropriation et de nouvelles relations de dépendance à l’ère des technologies algorithmiques et de l’intelligence artificielle (IA).
Nous identifions d’abord certaines limites de l’hypothèse influente du « techno-féodalisme » pour expliquer les changements politicoéconomiques contemporains, et nous adoptons plutôt le cadre du « capitalisme algorithmique » qui nous apparait plus apte à rendre compte des développements actuels. Deuxièmement, nous examinons les nouveaux rapports capital-travail engendrés par la montée des plateformes et par la prolifération du « travail digital », en nous concentrant surtout sur des espaces du Sud global. Nous nous penchons ensuite sur une nouvelle modalité de transfert de valeur du Sud global vers le Nord sous la forme de l’extraction de données rendue possible par le déploiement d’infrastructures de technologies numériques dans des pays du Sud. Finalement, nous discutons brièvement de la rivalité sino-américaine et nous faisons appel au concept de « périphérisation » afin d’explorer quelques tensions, déplacements et continuités dans l’économie politique internationale, de la période du capitalisme néolibéral à celle du capitalisme algorithmique.
L’économie politique de l’IA et des algorithmes : une logique féodale ou capitaliste ?
Comment conceptualiser le contexte historique du déploiement accéléré des technologies d’IA ? L’économiste Cédric Durand a formulé une théorisation des transformations contemporaines de l’économie politique du numérique qui a réveillé l’économie politique hétérodoxe de son sommeil dogmatique et qui exerce une grande influence au sein de la gauche[2]. Sa conceptualisation « technoféodale » de l’économie politique contemporaine constitue une contribution d’une grande valeur, mais elle souffre également de limites importantes. Le concept de technoféodalisme met l’accent sur les intangibles[3] et sur les déplacements qu’ils occasionnent dans l’organisation de la production, de la distribution et de la consommation. Selon cette hypothèse, le durcissement des droits de propriété intellectuelle, la centralisation des données et le contrôle oligopolistique de l’infrastructure sociotechnique au cœur du déploiement des technologies algorithmiques et du pouvoir économique des grandes plateformes participent tous à la formation d’une vaste économie de rentes structurée autour de relations de dépendance de type « féodal ».
Les configurations économiques technoféodales sont largement répandues, selon Durand. D’une part, elles s’expriment dans les relations de travail : « Alors que la question de la subordination se trouve au cœur de la relation salariale classique, c’est le rapport de dépendance économique qui est prééminent dans le contexte de l’économie des plateformes[4] ». Durand détecte une dynamique de dépendance non capitaliste dans un contexte où la gestion par les plateformes d’une myriade de travailleuses et travailleurs dispersés subvertit les formes contractuelles d’exploitation du travail salarié. D’autre part, des dynamiques « féodales » se déploient également dans les relations entre différents capitaux : « L’essor du numérique bouleverse les rapports concurrentiels au profit de relations de dépendance, ce qui dérègle la mécanique d’ensemble et tend à faire prévaloir la prédation sur la production[5] ». Malgré la diversité des innovations, notamment autour de l’IA, lesquelles se multiplient à un rythme accéléré, il peut sembler tentant d’aller plutôt vers la notion de féodalisme étant donné la tendance lourde à la stagnation de la productivité et de la croissance économique.
La terminologie féodale identifie certes des changements importants dans les relations fondamentales du capitalisme, mais elle crée à notre avis un cadre conceptuel anachronique qui souffre de limites importantes, surtout lorsqu’il s’agit d’analyser le moment contemporain du déploiement de technologies algorithmiques et de l’IA dans une perspective globale. Premièrement, le terme génère une conception du changement sociohistorique eurocentriste en situant les développements contemporains dans un cadre conceptuel qui reproduit l’expérience historique européenne. Deuxièmement, et de façon reliée, le cadre conceptuel « néoféodal » ignore ainsi comment le capitalisme s’est développé à l’échelle mondiale à partir d’une articulation interne de formes hétérogènes de travail et de marché, d’exploitation et d’extraction, en particulier en rendant l’existence de formes marginales et subordonnées en périphérie indispensable pour le maintien de formes capitalistes plus typiques au centre. Troisièmement, le modèle mène à une conception réductionniste de la transition en niant son contenu concret. Dans l’analyse d’un processus en cours, il est problématique de recourir à des débats sur la transition du féodalisme au capitalisme alors que ceux-ci portent sur des modes de production pleinement constitués sur le plan historique. Cela risque de mener à un raisonnement tautologique, où des caractéristiques soi-disant « non capitalistes » de la nouvelle économie sont étiquetées a priori comme « féodales », pour ensuite en faire dériver un modèle « technoféodal ». Pour ces raisons, la référence au féodalisme européen est davantage une allusion, une métaphore, certes très évocatrice, mais sans véritable pouvoir explicatif[6] : il s’agit davantage par cette notion de signaler des changements économiques contemporains sous le sceau d’un sentiment général de « régression ».
Il faut à notre avis inscrire la récente vague de changements sociotechniques dans un cadre qui permet de saisir les reconfigurations globales et les combinaisons émergentes entre anciennes et nouvelles formes d’accumulation. Plutôt qu’un « retour vers le futur » féodal, nous soutenons que les transformations contemporaines représentent un nouveau stade du développement capitaliste, le capitalisme algorithmique[7], au sein duquel une logique d’exploitation/extraction capitaliste déploie des mécanismes rentiers et de nouvelles formes de dépendance[8]. Comme nous l’ont rappelé entre autres Nancy Fraser, David Harvey et David McNally, l’extraction et « l’accumulation par dépossession » sont des processus continus de l’accumulation du capital, et non pas un moment « d’accumulation initiale » révolu, ou encore des restes historiques de modes de production précapitalistes.
Le capital algorithmique se caractérise par le développement et l’adoption rapide des technologies algorithmiques portés par un impératif d’extraction de données qui (re)produit des relations d’exploitation/extraction dans les espaces-temps du travail, du loisir et de la reproduction sociale, brouillant ces distinctions du point de vue de l’économie politique du capitalisme[9]. En effet, l’exploitation du temps de travail dans la production de valeur d’échange, la forme « classique » de l’accumulation capitaliste, s’accompagne désormais d’une nouvelle forme d’extraction, celle des données, qui se produit pendant et au-delà du temps de travail. On observe ainsi de nouvelles formes de production de valeur qui s’étendent au-delà du temps de travail au fil de différentes opérations d’extraction, de traitement et de transformation de données qui génèrent diverses formes d’actifs et de marchandises pour les capitalistes algorithmiques.
Depuis le milieu des années 2000, les algorithmes se sont encastrés dans divers aspects de l’accumulation du capital, que ce soit sur le plan de la production, de la distribution ou de la consommation. Ils médiatisent les relations sociales, orientent les flux de la (re) production socioéconomique et du travail, et disséminent leur logique prédictive dans la société. Il est désormais ardu de trouver des secteurs économiques, des marchés, voire des sphères de la société, qui ne soient pas transformés ou influencés par les données massives et les algorithmes. Depuis la crise du néolibéralisme financiarisé de 2007-2008, le capital algorithmique reconfigure, réoriente et transcende divers processus et dynamiques du capitalisme néolibéral, alors que les compagnies technologiques des GAFAM[10] entre autres sont devenues les plus grandes compagnies au monde et des fers de lance de l’accumulation capitaliste. Bien entendu, les transitions historiques s’opèrent sur le long terme, et la crise de 2007-2008 est selon nous le symbole d’un processus prolongé de chevauchements et de changements plutôt qu’une rupture nette ou subite. Néanmoins, une transition s’opère effectivement depuis les 15 à 20 dernières années et reconfigure le système capitaliste et son économie politique internationale. De ce point de vue, les nouvelles articulations des rapports entre le Nord et le Sud global se déploient non pas dans le contexte d’un moment « néoféodal » mondialisé, mais dans celui de l’avènement du capital algorithmique. Les nouvelles relations dans la division internationale du travail et les nouveaux mécanismes de transfert de valeur du Sud vers le Nord (et maintenant aussi vers la Chine) se saisissent plus aisément de ce point de vue.
Rapports capital-travail et division internationale du travail
La montée historique du capital algorithmique s’accompagne de reconfigurations importantes du travail aux ramifications internationales. Au premier chef, de nouvelles formes de travail digital combinent, au sein d’assemblages divers, des processus d’exploitation du travail et d’extraction de données sous quatre formes principales. Le « travail à la demande » est le résultat d’une médiation algorithmique, souvent par des plateformes, de l’économie des petits boulots (gig work) ; le « microtravail » fragmente et externalise des tâches numériques auprès de bassins de travailleuses et travailleurs du clic ; le « travail social en réseau » est le lot d’utilisatrices et d’utilisateurs de plateformes, notamment les médias sociaux, lesquels produisent du contenu et traitent des données ; finalement, le « travail venture » forme une nouvelle élite du travail autour de femmes et d’hommes programmeurs, ingénieurs et autres scientifiques de données et experts en IA employés par les firmes technologiques[11]. Chacune de ces formes de travail digital déploie une logique d’exploitation/extraction, alors que la valeur et les données migrent du travail vers le capital algorithmique.
Ces reconfigurations de la relation capital-travail ont en retour réajusté des pratiques de sous-traitance et de délocalisation du travail par les compagnies technologiques du Nord vers les travailleuses et travailleurs du Sud. L’exemple bien connu de la plateforme américaine Uber, qui a conquis tant d’espaces urbains et semi-urbains dans le Sud global, est évocateur de cette tendance large. De plus, la sous-traitance du microtravail par les firmes technologiques auprès de travailleuses et travailleurs du digital du Sud global crée de nouvelles relations d’exploitation/extraction directes et indirectes. Des cas bien documentés comme celui de la sous-traitance par la firme OpenAI de travail d’étiquetage et de « nettoyage » des données utilisées pour entrainer son large modèle de langage ChatGPT auprès de microtravailleuses et microtravailleurs kenyans est évocateur. Ces derniers devaient « nettoyer » les données d’entrainement de ChatGPT afin d’en retirer les contenus violents ou inacceptables pour le modèle tels que des agressions sexuelles, l’abus d’enfants, le racisme ou encore la violence qui pullulent sur Internet[12]. Plusieurs de ces travailleuses et travailleurs ont souffert par la suite du syndrome de choc post-traumatique. Cela n’est que la pointe de l’iceberg d’un vaste réseau de nouveaux marchés de travail digital qui reconfigurent la division internationale du travail à l’ère numérique.
Hormis le microtravail effectué sur la gigaplateforme Amazon Mechanical Turk, surtout concentré aux États-Unis, la plupart du microtravail est effectué dans le Sud global. Le travail digital configure ainsi ses propres chaines de valeur selon une dynamique qui reproduit les pratiques de délocalisation suivant l’axe Nord-Sud de la division internationale du travail. En 2024, la majorité des requérants de microtravail se trouve dans les pays du G7, et la majorité des exécutants de ces tâches dans le Sud global. Souvent, ces travailleuses et travailleurs ne sont pas reconnus comme employés des plateformes, ne jouissent d’aucune sécurité d’emploi, d’affiliation syndicale ou de salaire fixe. Ces personnes héritent également de tâches aliénantes et sous-payées d’entrainement d’algorithmes, de traitement de données et de supervision d’intelligences artificielles qui passent pour pleinement automatisées.
La constitution d’un marché international du travail digital mobilise différents mécanismes institutionnels de l’industrie du développement international. Par exemple, la montée d’organisations d’« impact-sourcing[13] » participe d’une redéfinition du développement international autour de la notion de « fournir des emplois au lieu de l’aide[14] ». La logique de l’impact-sourcing n’est pas nouvelle, elle reproduit des processus de délocalisation et la quête de travail bon marché typique de la mondialisation néolibérale, comme la délocalisation des emplois de services à la clientèle en Asie, notamment en Inde. L’impact-sourcing se concentre toutefois sur la délocalisation du travail digital. Au départ, ces organisations d’externalisation étaient sans but lucratif pour la plupart et, appuyées par la Banque mondiale, elles distribuaient des téléphones portables et des tâches de microtravail dans des camps de réfugié·es, des bidonvilles et dans des pays du Sud global frappés durement par des crises économiques, au Venezuela par exemple. Plusieurs de ces organisations sont devenues par la suite des compagnies à but lucratif qui jouent désormais un rôle majeur dans la constitution et l’organisation d’un marché du travail digital dans des communautés où les occasions d’emploi formel sont rares. La firme Sama par exemple, celle-là même engagée par OpenAI pour sous-traiter l’entrainement des données de ChatGPT, est active en Afrique, en Asie et en Amérique latine, où elle constitue des bassins d’emploi de travail digital à bon marché, notamment en Haïti et au Pakistan.
Nous voyons ainsi que le capital algorithmique introduit des modes d’articulation d’activités formelles et informelles, de boulots d’appoint et de tâches diverses sur plusieurs territoires. Le contrôle centralisé algorithmique de toutes ces activités garantit qu’elles produisent des données qui (re)produisent des formes de surveillance, de pouvoir social et de subordination du travail. Le travail qui supporte le développement de l’IA et des technologies algorithmiques ne provient donc pas uniquement de la Silicon Valley. C’est plutôt un travail collectif mondial qui produit l’IA à l’heure actuelle, mais la concentration de richesse et de pouvoir qui en découle se retrouve aux États-Unis et en Chine.
Extraction des données et transfert de valeur
La montée du travail digital dans le Sud global est également symptomatique de l’impératif d’extraction du capital algorithmique. L’Organisation mondiale du commerce (OMC) et la plupart des accords mondiaux de libre-échange qui structurent le commerce international régulent le mouvement des biens et services, mais aussi des données. Les géants du numérique comme Meta, Google, Amazon et Microsoft dominent à l’échelle mondiale et sont actifs dans le déploiement d’une infrastructure numérique dans les pays du Sud global en échange d’un accès exclusif aux données ainsi générées. Les ramifications internationales de cette « datafication » du Sud global[15] nous invitent à réviser le contenu de concepts tels que le colonialisme ou encore l’impérialisme. L’hégémonie américaine de la deuxième moitié du XXe siècle s’est bâtie sur des rapports économiques inégalitaires et des transferts de valeur du Sud global vers le Nord global, surtout vers les États-Unis et leurs alliés, sous diverses formes : la division internationale du travail, l’échange inégal, la coercition et l’appropriation par le marché, ou encore le mécanisme de la dette. L’ère du capitalisme algorithmique reproduit ces relations d’exploitation/extraction, mais déploie également un nouvel aspect : les transferts de valeur qui s’opèrent du Sud vers le Nord prennent désormais également la forme d’un transfert de données vers les centres que sont les États-Unis et la Chine[16], un transfert de données qui s’accompagne d’un pouvoir algorithmique de surveillance[17], de dépendance et potentiellement de gouvernementalité algorithmique[18] qui posent de nouveaux défis à la souveraineté nationale des pays du Sud. C’est ce que nous appelons le néocolonialisme algorithmique.
La « datafication » du Sud global a également des conséquences importantes dans la sphère du développement international, où l’on assiste à un transfert de pouvoir vers des acteurs du secteur privé. Les compagnies algorithmiques ont maintenant supplanté les autres joueurs traditionnels du complexe institutionnel du développement international (ONG, organisations internationales, gouvernements, banques de développement, organisations humanitaires, etc.) en ce qui concerne les informations sur les populations du Sud global. Les donateurs et autres bailleurs de fonds du développement international se tournent désormais vers des compagnies technologiques pour un accès aux données collectées par leurs applications, lesquelles sont plus nombreuses et détaillées que celles colligées par les méthodes « traditionnelles » (recensements, enquêtes, recherches scientifiques, etc.). Il en résulte que ces compagnies privées héritent d’un plus grand pouvoir de définir les enjeux de développement, de fixer des priorités et d’influencer la gouvernance des projets de développement.
De nouvelles dynamiques de pouvoir émergent ainsi entre acteurs publics et acteurs privés, ce qui soulève également des enjeux épistémologiques et éthiques. D’une part, les données extraites par les compagnies algorithmiques reflètent davantage la situation des populations « connectées » que celle des populations moins intégrées à l’économie de marché, au monde numérique et à la consommation de masse. D’autre part, la propriété des données donne aux capitalistes algorithmiques le pouvoir de voir tout en niant aux utilisatrices et utilisateurs le pouvoir de ne pas être vus. Mark Zuckerberg, par exemple, fait appel à une rhétorique philanthropique afin de promouvoir son projet de développement international « internet.org », visant à connecter gratuitement à l’Internet à l’échelle mondiale les populations défavorisées. L’intérêt de Meta dans un tel projet consiste bien sûr à s’approprier ainsi toutes les données générées par ces nouvelles connexions à grande échelle, surtout dans un contexte où la plupart des pays du Sud global visés par une telle initiative n’ont pas de législation solide concernant la propriété des données ou encore la protection de la vie privée. C’est cette logique extractive, combinée à un « solutionnisme technologique[19] » sans complexe, qui pousse IBM à vouloir utiliser l’IA afin de solutionner les problèmes en agriculture, en santé, en éducation et des systèmes sanitaires au Kenya, ou encore le géant chinois Huawei à développer environ 70 % du réseau 4G en Afrique, en plus de conclure des contrats notamment avec les gouvernements camerounais et kenyan afin d’équiper les centres de serveurs et de fournir des technologies de surveillance[20]. Les compagnies algorithmiques du Nord et de la Chine accumulent ainsi du pouvoir, de la richesse et de l’influence dans les pays du Sud global par ces formes de néocolonialisme algorithmique.
L’économie politique internationale du capitalisme algorithmique et la périphérisation
Le néocolonialisme algorithmique et les relations sino-américaines
L’avènement du capitalisme algorithmique se produit dans une conjoncture internationale de possible transition hégémonique. La croissance soutenue et parfois spectaculaire de la Chine dans les 40 dernières années se traduit désormais par une mise au défi du pouvoir unipolaire américain en place depuis la fin de la Guerre froide. La Chine est encore bien loin de l’hégémonie mondiale, mais sa montée en puissance ébranle déjà les dynamiques de pouvoir en Asie. Alors que le champ gravitationnel de l’accumulation mondiale s’est déplacé de la zone nord-atlantique vers l’Asie du Sud et du Sud-Est dans les dernières décennies[21], la Chine a développé son propre modèle de capitalisme algorithmique autoritaire et se pose désormais en rival mondial des États-Unis sur le plan de l’accumulation algorithmique et des technologies d’IA[22]. Les tensions manifestes dans cet espace de compétition internationale s’accompagnent d’un déclin soutenu du pouvoir économique des pays de l’Union européenne, pour qui le développement du capitalisme algorithmique se fait dans une relation de dépendance envers les États-Unis.
Tout comme le capital algorithmique américain déploie ses rapports capital-travail et ses modes d’exploitation/extraction dans de nouvelles configurations internationales, le capital algorithmique chinois déploie également une infrastructure technologique au fil de ses investissements internationaux, construisant des réseaux de transfert de valeur et de données en Asie, en Afrique, en Amérique latine et au Moyen-Orient, des réseaux orientés vers la Chine. Les flux mondiaux de données prennent ainsi deux directions majeures, les États-Unis et la Chine, avec l’exception notable de la Russie, le seul pays du monde autre que les États-Unis et la Chine à conserver une certaine forme de souveraineté numérique. Alors que le capital algorithmique déploie son unique configuration de mécanismes d’exploitation/extraction, des espaces du capitalisme mondial qui étaient jadis centraux dans l’accumulation du capital sont maintenant en voie de devenir périphériques.
La périphérisation
L’infrastructure sociotechnique algorithmique contemporaine imprègne de plus en plus chaque pore des chaines de valeur mondiales et approfondit les segmentations entre nations et régions au sein des espaces d’accumulation du capital. Le processus actuel de périphérisation de certains espaces du capitalisme mondial doit toutefois être remis dans un contexte historique plus long : la dépendance mondiale envers les GAFAM (et leurs contreparties chinoises) s’enracine dans des formes du droit international et des processus politiques hérités de la période néolibérale. La thèse technoféodale peut également être critiquée de ce point de vue : en décrivant un monde où les pouvoirs privés surpassent ceux des États, elle reproduit la même confusion qui caractérisait les arguments du « retrait de l’État » lors des rondes de privatisations intensives au plus fort de la période néolibérale. En fait, cette asymétrie de pouvoir est elle-même promulguée par les États sous la forme du droit, et elle résulte des positions inégales qu’occupent les différents pays en relation avec les compagnies technologiques transnationales. En ce sens, des formes de gouvernance néolibérale perdurent dans des types d’administration qui favorisent les compagnies privées et maintiennent en place l’orthodoxie budgétaire. Les politiques d’innovation demeurent ainsi largement orientées vers le secteur privé, et le système de droit de propriété intellectuelle international hérité de la période néolibérale sous-tend l’hégémonie des GAFAM aujourd’hui. En adoptant une perspective historique à plus long terme, nous voyons que la subordination d’États et de leur territoire à des compagnies transnationales n’est pas nouvelle dans le capitalisme ; en fait, il s’agit d’une condition structurelle qui distingue les pays périphériques des pays du centre.
Les « nouvelles relations de dépendance » à l’ère contemporaine se comprennent plus aisément lorsqu’on tient compte de l’histoire des monopoles intellectuels au-delà de la Californie. La vaste offensive de privatisation des actifs intangibles a débuté dans les années 1990 et s’est appuyée sur les tribunaux et les sanctions commerciales afin d’obliger les pays du Sud à se conformer au régime strict de droit de propriété intellectuelle. L’Accord de l’OMC sur les aspects des droits de propriété intellectuelle liés au commerce (ADPIC; TRIPS en anglais) est né d’une collaboration avec des entreprises du savoir du Nord de façon à établir des unités de production partout dans le monde tout en limitant l’accès aux intangibles par l’entremise des brevets. La disponibilité de cette infrastructure pour les pays du Sud était conditionnelle à l’adoption d’une forme renouvelée de domination. De plus, bien que les États-Unis et la Communauté européenne occupaient à l’époque une position dominante dans les secteurs informatique, pharmaceutique, chimique et du divertissement, et détenaient les marques déposées les plus importantes au monde, les États-Unis, en tant que premier exportateur mondial de propriété intellectuelle, jouissaient de davantage de marge de manœuvre pour consolider leur position et celle des compagnies qui possédaient d’importants portfolios de propriété intellectuelle.
Quelques décennies plus tard, le sol a certes bougé. Le développement du néocolonialisme algorithmique modifie l’ancienne division entre les gagnants du Nord et les perdants du Sud. Le durcissement du droit de propriété intellectuelle affecte même le Nord global, surtout les pays européens ou encore le Canada, et ce, en raison d’effets à long terme de politiques de flexibilisation et d’austérité qui ont jeté les bases de la montée du capital algorithmique. Cela illustre bien la complexité des transitions historiques, qui sont autant des moments de rupture que de chevauchement d’un vieux monde qui prépare le terrain pour le nouveau. L’Europe est désormais durablement larguée dans la course aux technologies algorithmiques et à l’IA, notamment en raison de systèmes d’innovation nationaux qui demeurent largement articulés autour du leadership du secteur privé, ce qui empêche les gouvernements d’intervenir dans les jeux de la concurrence capitaliste internationale. Alors que la Chine et la Russie ont été en mesure de développer de robustes écosystèmes numériques nationaux, on constate l’absence de capital européen au sommet du secteur technologique algorithmique, et les pays européens doivent pour la plupart se fier à l’infrastructure numérique de compagnies américaines.
Alors que l’avantage industriel historique européen s’est effrité sans être remplacé par de nouvelles capacités, cela nous rappelle que la compétition dans l’ordre international est bidirectionnelle : certains pays gagnent du terrain, d’autres en perdent. Comme le rappelle Enrique Dussel[23], les relations de dépendance entre des capitaux nationaux avec des degrés d’intrants technologiques différents sont un produit de la concurrence internationale. La « dépendance » européenne découle ainsi d’une logique de compétition internationale qui a altéré la relation des pays de l’Union européenne avec les intangibles. L’expérience européenne n’est pas celle d’une transition vers un autre mode de production « technoféodal », mais celle d’un passage de l’autre côté de l’ordre capitaliste mondial, celui de la périphérie. Loin d’un « retour vers le futur » néoféodal, ce processus de périphérisation qui affecte l’Europe, mais également d’autres espaces du capitalisme mondial, est symptomatique d’une reconfiguration des relations d’exploitation/extraction dans le nouveau stade du capitalisme algorithmique.
Par Giuliana Facciolli, Étudiante à la maîtrise à l’Université York et Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia.
NOTES
L’autrice et l’auteur remercient Écosociété de sa permission de reproduire certains passages du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023. ↑
- Cédric Durand, Techno-féodalisme. Critique de l’économie numérique, Paris, Zones, 2020. D’autres contributions importantes à la conceptualisation des changements contemporains en lien avec le concept de féodalisme viennent entre autres de : Jodi Dean, « Communism or neo-feudalism? », New Political Science, vol. 42, no 1, 2020 ; Yanis Varoufakis, « Techno-feudalism is taking over », Project Syndicate, 28 juin 2021 ; David Graeber parle de son côté de « féodalisme managérial » dans les relations de travail contemporaines. Voir David Graeber, Bullshit Jobs, New York, Simon & Schuster, 2018; en français: Bullshit Jobs, Paris, Les liens qui libèrent, 2018. ↑
- Les actifs intangibles sont des moyens de production qu’on ne peut « toucher », par exemple un code informatique, un design, une base de données. Durand, Techno-féodalisme, op. cit., p. 119. ↑
- Durand, p. 97. ↑
- Durand, p. 171. ↑
- Pour une critique différente mais convergente, voir Martineau et Durand Folco, 2023, op. cit., p. 174-179. ↑
- Martineau et Durand Folco, 2023, op. cit. ↑
- L’idée des relations capitalistes comme assemblages de modes d’exploitation et d’extraction (ou expropriation) et de l’accumulation du capital comme à la fois un processus d’exploitation et de « dépossession » est inspirée de contributions de Nancy Fraser, David Harvey et David McNally : Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; David McNally, Another World is Possible. Globalization and Anti-capitalism, Winnipeg, Arbeiter Ring Publishing, 2006 ; David Harvey, Le nouvel impérialisme, Paris, Les Prairies ordinaires, 2010. ↑
- Jonathan Martineau et Jonathan Durand Folco, « Paradoxe de l’accélération des rythmes de vie et capitalisme contemporain : les catégories sociales de temps à l’ère des technologies algorithmiques », Politique et Sociétés, vol. 42, no 3, 2023. ↑
- NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft. ↑
- Antonio A. Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019 ; Jonathan Martineau et Jonathan Durand Folco, « Les quatre moments du travail algorithmique : vers une synthèse théorique », Anthropologie et Sociétés, vol. 47, no 1, 2023 ; Gina Neff, Labor Venture. Work and the Burden of Risk in Innovative Industries, Cambridge, MIT Press, 2012. ↑
- Billy Perrigo, « Exclusive : OpenAI used kenyan workers on less than $2 per hour to make ChatGPT less toxic », Time, 18 janvier 2023. ↑
- Parfois traduit en français par « externalisation socialement responsable ». ↑
- Phil Jones, Work Without the Worker. Labour in the Age of Platform Capitalism, Londres,Verso, 2021. ↑
- Linnet Taylor et Dennis Broeders, « In the name of development : power, profit and the datafication of the global South », Geoforum, vol. 64, 2015, p. 229‑237. ↑
- Ce phénomène a certains précédents, notamment la compagnie IBM qui s’appropriait dès les années 1970 les données transitant par ses systèmes informatiques installés dans certains pays du Sud global. Il se déploie toutefois aujourd’hui à une échelle beaucoup plus grande. ↑
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2022. ↑
- Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, vol. 1, n° 177, 2013, p. 163‑96. ↑
- Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014. ↑
- Mohammed Yusuf, « China’s reach into Africa’s digital sector worries experts », Voice of America, 22 octobre 2021. ↑
- David McNally, Panne globale. Crise, austérité et résistance, Montréal, Écosociété, 2013. ↑
- Kai-Fu Lee, AI Superpowers: China, Silicon Valley, and the New World Order, Boston, Houghton Mifflin Harcourt, 2018. ↑
- Enrique Dussel, Towards an Unknown Marx. A Commentary on the Manuscripts of 1861-63, Abingdon, Taylor & Francis, 2001. ↑

Vers une théorie globale du capitalisme algorithmique

La littérature sur l’intelligence artificielle (IA) et les algorithmes est aujourd’hui foisonnante, c’est le moins qu’on puisse dire. Toutefois, la plupart des analyses des impacts de l’IA abordent différents domaines de façon isolée : vie privée, travail, monde politique, environnement, éducation, etc. Peu de contributions traitent de façon systématique des rapports complexes qui se tissent entre le mode de production capitaliste et les algorithmes. Notre hypothèse de départ est qu’on ne peut comprendre le développement fulgurant des algorithmes sans comprendre les reconfigurations du capitalisme, et vice versa.
Pour saisir adéquatement les implications sociales, politiques et économiques des machines algorithmiques, il faut situer ces innovations dans le contexte de mutation du capitalisme des deux premières décennies du XXIe siècle. Nous suggérons que la valorisation des données massives et le déploiement rapide de l’IA grâce aux avancées de l’apprentissage automatique (machine learning) et de l’apprentisage profond (deep learning) s’accompagnent d’une mutation importante du capitalisme, et ce, au même titre que la révolution industrielle qui a jadis propulsé l’empire du capital au XIXe siècle. Nous sommes entrés dans un nouveau stade du capitalisme basé sur une nouvelle logique d’accumulation et une forme de pouvoir spécifique, que nous avons baptisé capital algorithmique. Ce terme désigne un phénomène multidimensionnel : il s’agit à la fois d’une logique formelle, d’une dynamique d’accumulation, d’un rapport social et d’une forme originale de pouvoir fondé sur les algorithmes. Il s’agit de conceptualiser la convergence entre la logique d’accumulation du capital et l’usage accru de nouveaux outils algorithmiques. Par contraste, l’expression « capitalisme algorithmique » renvoie plutôt à la formation sociale dans sa globalité, c’est-à-dire l’articulation historique d’un mode de production et d’un contexte institutionnel, ce que Nancy Fraser appelle un « ordre social institutionnalisé[2] ». Il faut donc distinguer la société capitaliste dans laquelle nous sommes, et le rapport social spécifique qui se déploie d’une multitude de manières.
Si la littérature a produit une panoplie d’appellations qui mettent l’accent sur différents aspects du capitalisme contemporain (capitalisme de surveillance, de plateforme, etc.), le concept de « capital algorithmique » comporte plusieurs avantages heuristiques afin de saisir la logique du nouveau régime d’accumulation capitaliste. Il permet d’abord de replacer le travail et la production au centre de l’analyse, mais également d’identifier ce qui, à notre avis, constitue le réel cœur de la logique d’accumulation du capitalisme aujourd’hui et de la relation sociale qui s’y déploie : l’algorithme. En effet, l’algorithme est le principe structurant du nouveau régime d’accumulation capitaliste qui prend appui sur, réarticule, et dépasse le néolibéralisme financiarisé. Premièrement, l’algorithme devient le mécanisme dominant d’allocation du « travail digital » (digital labor). Deuxièmement, l’algorithme ou l’accumulation algorithmique devient le mécanisme dominant de détermination du processus de production. Troisièmement, les algorithmes et les données qui leur sont associées deviennent un objet central de la concurrence entre les entreprises capitalistes. Quatrièmement, les algorithmes médiatisent les relations sociales, notamment par l’entremise des réseaux sociaux et des plateformes numériques. Cinquièmement, les algorithmes médiatisent l’accès à l’information et à la mémoire collective. Sixièmement, l’algorithme génère des revenus en participant à la production de marchandises, ou en tant que mécanisme participant de l’extraction de rentes différentielles. Septièmement, au-delà des entreprises privées, nombre d’organisations et de sphères sociales, allant des pouvoirs publics, services de police, complexes militaires, aux ONG de développement, en passant par les soins de santé, l’éducation, le transport, les infrastructures publiques, etc., ont recours à des technologies algorithmiques afin d’exercer leur pouvoir ou leurs activités. C’est la raison pour laquelle l’algorithme, bien davantage que le « numérique », le « digital », la « surveillance » ou autre constitue le cœur du nouveau régime d’accumulation : il médiatise les relations sociales, préside à la (re)production socioéconomique et diffuse sa logique prédictive dans la société contemporaine.
Si l’expression « capitalisme numérique » peut servir à désigner de manière large les multiples façons dont les technologies numériques influencent le capitalisme et inversement, cette catégorisation demeure trop générale et abstraite pour bien saisir les mécanismes et métamorphoses à l’œuvre au sein des sociétés du XXIe siècle. Plus précisément, l’hypothèse du capitalisme algorithmique suggère qu’il existe une rupture entre deux phases ou moments du capitalisme numérique. Alors que la période qui part de la fin des années 1970 correspond à l’émergence du capitalisme néolibéral, financiarisé et mondialisé, dans la première décennie du XXIe siècle, avec l’arrivée de nouvelles technologies comme l’ordinateur personnel et l’Internet de masse, une série de transformations a produit un effet de bascule ; les médias sociaux, les téléphones intelligents, l’économie de plateformes, les données massives et la révolution de l’apprentissage automatique ont convergé avec la crise financière mondiale de 2007-2008 pour accélérer le passage vers une reconfiguration du capitalisme où la logique algorithmique joue un rôle déterminant.
Pour éviter une conception trop mécanique et réductrice du capitalisme algorithmique, il importe de positionner notre perspective parmi la littérature foisonnante des théories critiques du capitalisme contemporain. Comme il existe une variété de positions entourant les relations complexes entre les technologies et le système capitaliste, nous pouvons distinguer trois principaux axes de débats : l’IA comme outil du capital, la nature du capitalisme et les possibilités d’émancipation.
L’IA, outil du capital ?
Premièrement, dans quelle mesure les algorithmes sont-ils des outils soumis à la logique capitaliste ? Selon une première position acritique, les algorithmes possèdent leur propre réalité, fonctions et usages potentiels, de sorte qu’il est possible de les analyser et de les développer sans faire référence au mode de production capitaliste, à ses impératifs d’accumulation, à ses modes d’exploitation et à ses contraintes spécifiques. Cette vision dominante des algorithmes, largement partagée au sein des milieux scientifiques, industriels et médiatiques, inclut les théories courantes de l’IA, l’éthique des algorithmes ou encore les positions techno-optimistes qui considèrent que les données massives, les plateformes et l’apprentissage automatique pourront créer un monde plus efficace, libre et prospère. Si les auteurs n’hésitent pas à reconnaitre les risques propres à ces technologies, l’objectif ultime est de « harnacher » la révolution algorithmique afin qu’elle soit au service du bien commun, ou encore qu’elle permette de réinventer le capitalisme à l’âge des données massives[3].
Face à ces positions acritiques, des théories critiques n’hésitent pas à dénoncer cette fausse indépendance de la technique et à voir dans les algorithmes un nouvel outil au service du capital. La question de savoir s’il existe plusieurs usages possibles des données massives et de l’IA est matière à débat, mais toutes les approches critiques du capitalisme partagent un constat commun : ce sont les grandes entreprises du numérique qui contrôlent en bonne partie le développement de ces technologies. En effet, ce sont elles qui possèdent les droits de propriété intellectuelle, les budgets de recherche, les centres de données qui stockent nos données personnelles, de même que le temps de travail des scientifiques et celui des lobbyistes qui font pression auprès des gouvernements pour empêcher des législations contraires à leurs intérêts[4]. Nous soutenons la thèse voulant que les technologies algorithmiques soient principalement ou surtout développées en tant qu’outils d’accumulation du capital, tout en étant aussi utilisées dans une variété de sphères de la vie sociale avec des conséquences qui débordent largement cette finalité économique. Sans être réductibles à leur fonction lucrative, les données massives et les algorithmes sont appropriés, façonnés et déployés selon une logique qui répond aux impératifs du mode de production capitaliste et contribuent à modifier ce système en retour.
Nous croyons d’ailleurs, comme d’autres, que les craintes associées aux dangers de l’IA, des robots et des algorithmes constituent souvent au fond des anticipations de menaces liées au fonctionnement du capitalisme. Comme le note l’écrivain de science-fiction Ted Chiang, « la plupart de nos craintes ou de nos angoisses à l’égard de la technologie sont mieux comprises comme des craintes ou des angoisses sur la façon dont le capitalisme va utiliser la technologie contre nous. Et la technologie et le capitalisme ont été si étroitement imbriqués qu’il est difficile de distinguer les deux[5] ». Certaines personnes craignent par exemple que l’IA finisse un jour par nous dominer, nous surpasser ou nous remplacer. Or, derrière le scénario catastrophe d’une IA toute-puissante version Terminator[6] ou de la « superintelligence » présentant un risque existentiel pour l’humanité du philosophe Nick Bostrom se cache la domination actuelle des entreprises capitalistes. Le problème n’est pas l’IA en soi, mais le rapport social capitaliste qui l’enveloppe et qui détermine en bonne partie sa trajectoire. Un autre problème se surajoute : le capital algorithmique est lui-même imbriqué dans d’autres rapports sociaux comme le patriarcat, le colonialisme, le racisme, la domination de l’État.
Certains diront qu’il faut abolir l’IA – ou certaines de ses applications –, saboter les machines algorithmiques, refuser en bloc la technologie, mais ce sont là des réactions qui s’attaquent seulement à la pointe de l’iceberg. Nous sommes confrontés aujourd’hui à une dynamique similaire à celle que Marx observait à son époque, celle de la révolution industrielle où la machine commençait déjà à remplacer une partie du travail humain. Aujourd’hui, la « quatrième révolution industrielle », célébrée par Klaus Schwaub, représente au fond une révolution technologique qui relance la dynamique d’industrialisation, mais à l’aide de machines algorithmiques et de systèmes décisionnels automatisés. La réaction néoluddite qui vise à détruire ces machines est tout à fait normale et prévisible, mais il faut voir ici qu’il est vain d’avoir peur de ChatGPT, des robots ou des algorithmes. Ce qu’il faut, au fond, c’est remettre en question l’ensemble des rapports sociaux qui reproduisent la domination qui se manifeste aujourd’hui en partie par le pouvoir des algorithmes.
Qu’est-ce que le capitalisme ?
Qu’entend-on exactement lorsqu’on parle de « capitalisme » ? S’agit-il d’une économie de marché où les individus se rencontrent pour échanger des biens et services, un système économique basé sur la propriété privée des moyens de production et l’exploitation du travail par les capitalistes, ou encore une dynamique d’accumulation fondée sur la logique abstraite de l’autovalorisation de la valeur qui tend à transformer le capital en « sujet automate » ? Selon la perspective que l’on adopte sur la nature du capitalisme, l’analyse du rôle exact des algorithmes sera bien différente.
Lorsque les institutions du capitalisme comme l’entreprise privée et le marché sont tenus pour acquis, l’usage des données et des algorithmes sera généralement analysé à travers la lunette des applications potentielles pour améliorer la performance des entreprises. Les algorithmes seront conçus comme des « machines prédictives » permettant d’accomplir une multitude de tâches : réduire les coûts de production, améliorer le processus de travail, optimiser les chaines de valeur, bonifier l’expérience client, guider les décisions stratégiques, etc.[7]
Si on adopte plutôt une perspective critique du capitalisme dans le sillage du marxisme classique, on aura plutôt tendance à mettre en lumière les dynamiques d’appropriation privée des nouvelles technologies, les rapports d’exploitation et les résistances des classes opprimées. Cette conception du capitalisme aura tendance à voir le monde numérique comme un « champ de bataille[8] ». En effet, le capitalisme algorithmique repose en bonne partie sur le pouvoir prédominant des géants du Web, l’exploitation du travail et de l’expérience humaine; il renforce différentes tensions, inégalités et contradictions du monde social, et de nombreux fronts de résistance luttent contre ses effets pernicieux : mouvements pour la protection de la vie privée, mobilisations contre Uber, Amazon et Airbnb, sabotage de dispositifs de surveillance, Data 4 Black Lives[9], etc. Cela dit, les analyses uniquement axées sur la « lutte des classes » et les approches inspirées du marxisme classique ont tendance à réduire le capitalisme numérique à un affrontement entre les géants du Web – les capitalistes – et les femmes et hommes « utilisateurs » ou « travailleurs du clic » qui se font exploiter ou voler leurs données. On omet ainsi l’analyse conceptuelle minutieuse des rouages de l’accumulation capitaliste et des rapports sociaux qui structurent la société capitaliste dans son ensemble et sur laquelle il faut se pencher.
C’est ce qu’une troisième approche critique, distincte du marxisme classique, cherche à faire : adopter une vision holistique qui considère le capital comme « une totalité qui prend la forme d’une structure quasi objective de domination […] une situation d’hétéronomie sociale qui prend la forme d’un mode de développement aveugle, incontrôlé et irréfléchi sur lequel les sociétés n’ont aucune prise politiquement[10] ». Dans la lignée des critiques marxiennes de la valeur, l’analyse du capitalisme se concentre sur les catégories centrales de la société capitaliste comme le travail abstrait, la marchandise et la valeur. La critique du capitalisme comme « totalité sociale aliénée » implique donc la critique radicale de la valeur et des « médiations sociales fétichisées », de « l’imaginaire communicationnel du capitalisme cybernétique » et de la « révolution culturelle de l’idéologie californienne » qui nous mènerait vers un « monde numériquement administré[11] ». Or, ces approches totalisantes, malgré leurs prouesses théoriques, ont tendance à éluder les conflits, résistances et possibilités d’émancipation présentes dans le développement économique.
Ces deux approches critiques marxiennes, prenant appui l’une sur les conflits de classes et l’autre sur la logique totalisante du capital, ont donc chacune leurs forces et leurs faiblesses. Selon nous, le capital algorithmique tend à coloniser l’ensemble des sphères de l’existence humaine par une dynamique d’accumulation basée sur l’extraction des données et le développement accéléré de l’IA. Le capitalisme ne se réduit pas à un rapport de force entre classes antagonistes : il représente bel et bien une totalité sociale. Or, il faut également éviter le piège fataliste des approches surplombantes et réifiantes, et analyser en détail les rapports de pouvoir et les conflits qui se déploient dans le sillon de la montée du capital algorithmique. Il est donc nécessaire, pour une théorie critique des algorithmes, d’articuler les deux logiques distinctes, mais complémentaires du capital : « la logique du capital comme système achevé » et « la logique stratégique de l’affrontement[12] ».
Quelles possibilités d’émancipation?
L’accent plus ou moins grand porté sur la logique du capital (comme dynamique totalisante) ou la stratégie d’affrontement (faisant intervenir l’agentivité des acteurs) implique une évaluation différenciée des possibilités d’émancipation sous le capitalisme algorithmique. Des approches centrées sur la lutte des classes soutiennent parfois que l’impact de l’IA est grandement exagéré par les capitalistes, lesquels visent à effrayer le mouvement ouvrier des dangers imminents de l’automation. Astra Taylor soutient par exemple que les récits catastrophistes liés à l’arrivée des robots et du chômage technologique de masse sont des tentatives délibérées d’intimider et de discipliner les travailleurs et travailleuses en brandissant le discours idéologique de ce qu’elle nomme la fauxtomation[13]. Sans doute, des capitalistes utilisent-ils cette rhétorique de la sorte. Nous aurions tort cependant de minimiser l’impact de l’IA sur le processus de travail, les emplois et des secteurs entiers de l’économie. Même si les estimations sur le chômage engendré par l’automation varient grandement (de 9 % à 50 % en fonction des méthodologies utilisées), il faut bien reconnaitre la tendance du capital algorithmique à remplacer les humains par les robots, ou du moins à les compléter, surveiller et contrôler par de nouveaux moyens algorithmiques sophistiqués. S’il pouvait achever sa logique en totalité, le capital algorithmique viserait à développer un capitalisme pleinement automatisé.
À l’opposé du spectre, les auteurs du courant « accélérationniste » évaluent positivement l’horizon d’une automation généralisée, pour autant qu’elle soit combinée à une socialisation des moyens de production[14]. Les technologies algorithmiques jetteraient ainsi les bases d’une économie postcapitaliste au-delà du travail[15]. D’autres courants comme le xénoféminisme et les théoriciens du « capitalisme cognitif » soulignent également le potentiel émancipateur du travail immatériel, des pratiques de collaboration, de l’hybridation humain-machine et des nouvelles technologies[16]. À l’instar de Lénine, selon qui « le communisme, c’est le gouvernement des soviets plus l’électrification du pays », on pourrait dire que les courants anticapitalistes techno-optimistes considèrent aujourd’hui que le cybercommunisme signifie « le revenu de base plus l’intelligence artificielle[17] ». Cela n’est pas sans rappeler la position de Trotsky sur le taylorisme, « mauvais dans son usage capitaliste et bon dans son usage socialiste ». On trouve la vision la plus aboutie de ce marxisme accélérationniste chez Aaron Bastani et sa vision d’un « communisme de luxe entièrement automatisé » (fully automated luxury communism), qui propose l’utopie d’une économie postrareté par le plein déploiement des forces productives algorithmiques au-delà des contraintes de la logique capitaliste. Dans cette perspective, le capital algorithmique creuserait sa propre tombe, en laissant miroiter la possibilité d’un monde pleinement automatisé, basé sur l’extraction de minerai sur les astéroïdes, la production d’aliments synthétiques et la réduction drastique du travail humain[18]. Cette vision parait digne d’un Jeff Bezos ou d’un Elon Musk qui porterait soudainement une casquette socialiste.
Cela dit, il semble bien naïf de croire que l’automation algorithmique soit mauvaise sous les GAFAM, mais bonne sous le socialisme. Loin de poser les bases d’une société au-delà de la misère et des inégalités, le capital algorithmique automatise les différentes formes de domination, contribue à la surexploitation des ressources naturelles et siphonne notre temps d’attention grâce à ses multiples technologies addictives. En d’autres termes, l’extraction toujours plus intense des données et le développement actuel des algorithmes contribuent à créer les bases d’un capitalisme pleinement automatisé, accélérant la pénurie de temps et de ressources naturelles.
Enfin, il serait trompeur de se limiter à la logique du capital, en omettant les stratégies d’affrontement qui peuvent dégager des possibilités d’émancipation pour dépasser l’horizon du capitalisme automatisé. À la différence des courants technosceptiques et néoluddites qui refusent en bloc les technologies algorithmiques, il existe différentes perspectives de résistance et des stratégies anticapitalistes visant une potentielle réappropriation collective des données et des algorithmes[19]. Il est possible d’envisager les potentialités et limites liées à la planification algorithmique dans une optique d’autolimitation écologique, de justice sociale et de démocratie radicale[20].
Le capitalisme algorithmique comme ordre social institutionnalisé
Nancy Fraser a développé durant les dernières années une théorie globale du capitalisme qui comprend non seulement un mode de production économique spécifique, mais aussi une articulation avec la nature, les pouvoirs publics et le travail de reproduction sociale[21]. Cette reconceptualisation permet de saisir l’imbrication du capitalisme avec les inégalités de genre et la crise du care (les soins), les dynamiques d’expropriation et d’exploitation au sein du capitalisme racialisé, ainsi que les dynamiques complexes qui alimentent la crise écologique, laquelle exacerbe les inégalités raciales, économiques et environnementales. Ce cadre conceptuel large inspiré du féminisme marxiste permet de saisir l’enchevêtrement des multiples systèmes de domination (capitalisme, patriarcat, racisme, etc.) et d’éclairer les « luttes frontières » présentes dans différents recoins du monde social. La perspective critique de Fraser nous semble ainsi la meilleure porte d’entrée pour brosser un portrait systématique de la société capitaliste qui nous permettra ensuite de mieux comprendre comment les technologies algorithmiques reconfigurent celle-ci.
Nancy Fraser propose de voir le capitalisme comme un ordre social institutionnalisé. Que cela signifie-t-il ? Fraser définit d’abord la production capitaliste en la définissant par quatre caractéristiques fondamentales : 1) la propriété privée des moyens de production ; 2) le marché du travail ; 3) la dynamique d’accumulation ; 4) l’allocation des facteurs de production et du surplus social par le marché. Le capital algorithmique reconfigure les modèles d’entreprise (hégémonie des plateformes numériques), les formes du travail (travail digital et travail algorithmique), la dynamique d’accumulation (par l’extraction de données et les algorithmes), ainsi que l’apparition de nouveaux marchés (marchés des produits prédictifs, etc.). Mais cette caractérisation sommaire du système économique capitaliste reste largement insuffisante.
Selon Fraser, la « production économique » repose en fin de compte sur l’exploitation de trois sphères « non économiques » : la nature, le travail de reproduction sociale et le pouvoir politique, qui représentent ses conditions de possibilité. Loin de nous concentrer sur la seule économie capitaliste, il faut s’attarder sur les différentes sphères de la société capitaliste à l’ère des algorithmes. L’avantage de la perspective de Fraser est de décentrer l’analyse de la contradiction économique capital/travail pour mettre en lumière les multiples tendances à la crise du capitalisme sur le plan social, démocratique et écologique : « La production capitaliste ne se soutient pas par elle-même, mais parasite la reproduction sociale, la nature et le pouvoir politique. Sa dynamique d’accumulation sans fin menace de déstabiliser ses propres conditions de possibilité[22]. » Aujourd’hui, le capital algorithmique cherche à résoudre ses multiples crises et contradictions par l’usage intensif des données et de l’intelligence artificielle : innovations technologiques pour accélérer la transition écologique (efficacité énergétique, agriculture 4.0, voitures autonomes, robots pour nettoyer les océans), soutien des tâches domestiques et de reproduction sociale (maisons intelligentes, plateformes de services domestiques, robots de soins pour s’occuper des personnes ainées et des enfants), solutions des crises de gouvernance (ville intelligente, optimisation de l’administration publique, police prédictive, dispositifs de surveillance), etc.
Cela dit, la théorie de Fraser souffre d’un oubli majeur : elle n’aborde pas du tout la question technologique. Elle analyse l’évolution historique du capitalisme à travers ses différents stades ou régimes d’accumulation, mais elle s’arrête au stade du capitalisme néolibéral, financiarisé et mondialisé. Or, il semble bien que l’infrastructure technologique représente une autre condition de possibilité du capital, que Fraser omet de mettre dans son cadre théorique : sans système de transport et de communication, sans machines et sans outils techniques, il semble difficilement possible de faire fonctionner le capitalisme, y compris dans ses variantes mercantiles et préindustrielles. Autrement dit, Fraser semble avoir oublié les conditions générales de production dans sa théorie globale du capitalisme, y compris les technologies algorithmiques qui contribuent aujourd’hui à sa métamorphose. Pour combler cette lacune, il nous semble donc essentiel de compléter le portrait avec les contributions névralgiques de Shoshana Zuboff et de Kate Crawford, qui jettent un regard perçant sur les dimensions technologiques de l’économie contemporaine, laquelle repose de plus en plus sur la surveillance et sur l’industrie extractive de l’intelligence artificielle.
Le capitalisme de surveillance comme industrie extractive planétaire
Le livre L’âge du capitalisme de surveillance de Shoshana Zuboff offre un portrait saisissant des mutations de l’économie numérique qui a vu naitre l’émergence de nouveaux modèles d’affaires basés sur l’extraction de données personnelles et le déploiement d’algorithmes centrés sur la prédiction de comportements futurs[23]. Alors que le développement technologique des ordinateurs et de l’Internet aurait pu mener à diverses configurations socioéconomiques, une forme particulière de capitalisme a pris le dessus au début des années 2000 avant de dominer complètement le champ économique et nos vies. Voici comment Zuboff définit ce nouveau visage du capitalisme contemporain :
Le capitalisme de surveillance revendique unilatéralement l’expérience humaine comme matière première gratuite destinée à être traduite en données comportementales. Bien que certaines données soient utilisées pour améliorer des produits ou des services, le reste est déclaré comme un surplus comportemental propriétaire qui vient alimenter des chaines de production avancées, connues sous le nom d’« intelligence artificielle », pour être transformé en produits de prédiction qui anticipent ce que vous allez faire, maintenant, bientôt ou plus tard. Enfin, ces produits de prédiction sont négociés sur un nouveau marché, celui des prédictions comportementales, que j’appelle les marchés de comportements futurs. Les capitalistes de surveillance se sont énormément enrichis grâce à ces opérations commerciales, car de nombreuses entreprises sont enclines à miser sur notre comportement futur[24].
Zuboff fournit une excellente porte d’entrée pour comprendre la mutation fondatrice du capital à l’aube du XXIe siècle : l’extraction et la valorisation des données par le biais d’algorithmes se retrouvent maintenant au cœur du processus d’accumulation du capital. Elle offre aussi une deuxième contribution majeure. Selon elle, le capital de surveillance n’est pas réductible à un simple processus économique ; il donne lieu à l’émergence d’une nouvelle forme de pouvoir inquiétante : le pouvoir instrumentarien, soit « l’instrumentation et l’instrumentalisation du comportement à des fins de modification, de prédiction, de monétisation et de contrôle[25] ». Cette « gouvernementalité algorithmique » ne sert pas seulement à extraire de la valeur par le biais de publicités ciblées qui anticipent nos comportements futurs ; ces machines prédictives visent aussi à influencer, à contrôler, à nudger (donner un coup de pouce) et à manipuler nos conduites quotidiennes. Cette nouvelle logique de pouvoir dans différentes sphères de la vie sociale, économique et politique confère à cette configuration du capitalisme sa plus grande emprise sur les rapports sociaux et notre relation au monde.
Une limite de l’approche zuboffienne est qu’elle insiste beaucoup, voire peut-être trop, sur la question de la surveillance et de l’appropriation des données personnelles. Sa théorie a le mérite de décortiquer la nouvelle logique d’accumulation du capital et les mécanismes inédits de contrôle algorithmique des individus, mais elle finit par déboucher sur le « droit au temps futur », le « droit au sanctuaire », et autres revendications qui se limitent à la protection de la vie privée. La théorie de Zuboff ne permet pas vraiment de thématiser les injustices en termes de classe, de sexe et de « race » qui sont amplifiées par la domination algorithmique. Elle suggère un recadrage du capitalisme, soulignant la contradiction fondamentale entre l’extraction des données et le respect de la vie privée. La critique de l’exploitation du travail par le capital chez Marx est ainsi remplacée par la critique de l’extraction/manipulation de la vie intime des individus dans leur quotidien. Ce n’est donc pas un hasard si Zuboff passe sous silence le rôle du travail, l’extraction des ressources naturelles et les enjeux géopolitiques dans son cadre d’analyse. Pour nous, la surveillance ne représente que l’un des nombreux visages du capital algorithmique, qui a des conséquences beaucoup plus étendues.
C’est la raison pour laquelle il nous semble essentiel de compléter ce premier aperçu de Zuboff par un portrait élargi des nombreuses ramifications de l’IA dans le monde contemporain à travers l’approche riche et originale de Kate Crawford. Celle-ci propose de dépasser l’analyse étroite de l’IA qui est devenue monnaie courante de nos jours et qui la voit comme une simple forme de calcul, un outil comme le moteur de recherche de Google ou encore ChatGPT. Bien que ces multiples descriptions ne soient pas fausses, elles dissimulent néanmoins toute une infrastructure complexe en concentrant notre attention sur des technologies isolées, abstraites, rationnelles et désincarnées :
Au contraire, l’intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, d’énergies fossiles, de travail humain, d’infrastructures, de logistiques, d’histoires et de classifications. Les systèmes d’IA ne sont pas autonomes, rationnels, ou capables de discerner sans un entraînement computationnel extensif et intensif basé sur de larges ensembles de données, de règles et de récompenses prédéfinies. Et compte tenu du capital requis pour bâtir l’IA à large échelle et des manières de voir qui optimisent celle-ci, les systèmes d’IA sont ultimement conçus pour servir les intérêts établis dominants. En ce sens, l’intelligence artificielle entre dans le registre du pouvoir[26].
Pour Crawford, on ne peut comprendre les algorithmes adéquatement, d’un point de vue strictement technique, sans les insérer au sein de structures et systèmes sociaux plus larges. Crawford élargit notre champ de vision en montrant que l’IA repose sur l’extraction généralisée de minerais, d’énergie, de travail humain, de données, d’affects et d’éléments de nos institutions publiques. C’est pourquoi elle propose de concevoir l’IA d’un point de vue matérialiste et holistique, en évitant les pièges d’une vision trop formelle et idéaliste telle que véhiculée par l’éthique des algorithmes.
Néanmoins, cette vision donne un aperçu encore trop parcellaire et fragmenté de ce système en voie de consolidation. La riche cartographie de Crawford donne à voir les multiples visages, territoires et manifestations de ce phénomène complexe, mais sans fournir une grille d’analyse, un cadre conceptuel ou une théorie globale permettant d’expliquer et de comprendre ces différents enjeux dans un tout cohérent. C’est pourquoi il nous semble essentiel de comprendre l’enchevêtrement complexe entre la technologie, le pouvoir et le capital au sein d’une théorie globale du capitalisme algorithmique qu’il reste à déployer[27].
Par Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia et Jonathan Durand Folco, professeur à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul.
NOTES
Cet article est une version remaniée de la thèse 2 du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023. ↑
- Nancy Fraser et Rahel Jaeggi, Capitalism. A Conversation in Critical Theory, Cambridge, Polity Press, 2018. ↑
- Viktor Mayer-Schönberger et Thomas Ramge, Reinventing Capitalism in the Age of Big Data, New York, Basic Books, 2018. ↑
- Voir par exemple Nick Dyer-Witheford, Atle Mikkola Kjøsen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Pluto, 2019. ↑
- Cité par Ezra Klein, « The imminent danger of A.I. is one we’re not talking about », The New York Times, 26 février 2023. ↑
- NDLR. Terminator est un film américain de science-fiction sorti en 1984 où le Terminator est une créature robotisée programmée pour tuer. ↑
- Ajay Agrawal, Joshua Gans et Avi Goldfarb, Prediction Machines. The Simple Economics of Artificial Intelligence, Boston, Harvard Business Review Press, 2018. ↑
- Philippe de Grosbois, Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique, Montréal, Écosociété, 2018, p. 30. ↑
- NDLR. Mouvement de militants et militantes et de scientifiques dont la mission est d’utiliser la science des données pour améliorer la vie des Noirs·es. ↑
- Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 38. ↑
- Ibid., p. 60. ↑
- Pierre Dardot et Christian Laval, Marx, prénom : Karl, Paris, Gallimard, 2012. ↑
- Astra Taylor, « The automation charade », Logic, no 5, 2018.NDLR. Fauxtomation est un mot inventé par Taylor et formé de « faux » et d’« automatisation » pour exprimer comment le travail accompli grâce à l’effort humain est faussement perçu comme automatisé. ↑
- Nick Srnicek et Alex Williams, Inventing the Future. Postcapitalism and a World Without Work, Brooklyn, Verso, 2015. ↑
- Paul Mason, Postcapitalism. A Guide to Our Future, Londres, Allen Lane, 2015. ↑
- Helen Hester, Xenofeminism, Cambridge (UK) /Medford (MA), Polity Press, 2018 ; Laboria Cuboniks (Collectif), The Xenofeminist Manifesto. A Politics for Alienation, Brooklyn, Verso, 2018 ; Michael Hardt et Antonio Negri, Empire, Paris, Exils, 2000 ; Yann Moulier Boutang, Le capitalisme cognitif. La nouvelle grande transformation, Paris, Amsterdam, 2007. ↑
- Dyer-Witheford, Kjøsen et Steinhoff, Inhuman Power, 2019, op. cit., p. 6. ↑
- Aaron Bastani, Fully Automated Luxury Communism, Londres, Verso, 2020. ↑
- Voir à ce sujet, Jonathan Durand Folco et Jonathan Martineau, « Cartographier les résistances à l’ère du capital algorithmique », Revue Possibles, vol. 45, n° 1, 2021, p. 20-30. ↑
- Cédric Durand et Razmig Keucheyan, « Planifier à l’âge des algorithmes », Actuel Marx, n° 1, 2019, p. 81-102. ↑
- Nancy Fraser, « Behind Marx’s hidden abode », New Left Review, no 86, 2014 ; Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; Nancy Fraser, « Contradictions of capital and care », Dissent, vol. 63, no 4, 2016, p. 30‑37 ; Fraser et Jaeggi, Capitalism, 2018, op. cit ; Nancy Fraser, « Climates of capital », New Left Review, no 127, 2021. ↑
- Fraser et Jaeggi, Capitalism, 2018, op. cit., p. 22. ↑
- Soshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020. ↑
- Ibid., p. 25. ↑
- Ibid., p. 472. ↑
- Kate Crawford, Contre-atlas de l’intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA, Paris, Zulma, 2022, p. 8. ↑
- C’est là l’objet des 20 thèses de notre livre, Le capital algorithmique, 2023, op. cit. ↑

Penser politiquement les mutations du capitalisme à l’ère de l’intelligence artificielle

La plupart des écrits qui abordent la question de l’intelligence artificielle à l’heure actuelle, qu’ils soient critiques ou apologétiques, ont la fâcheuse tendance à réifier le caractère inédit d’une nouvelle forme de capitalisme, tantôt qualifié d’informationnel, de numérique, de surveillance ou d’algorithmique, qui serait induite par l’exploitation massive des données numériques. En n’expliquant pas comment ces transformations s’inscrivent dans la continuité avec les dynamiques structurelles plus larges du capitalisme de l’après-guerre, que j’ai qualifiées ailleurs de « révolution culturelle du capital[1] », ces analyses participent bien souvent à leur insu à la dépolitisation de la technique et de l’économie, ce qui empêche de penser les conditions de la possibilité d’un dépassement de la logique de domination dépersonnalisée inscrite dans la configuration même de l’intelligence artificielle. Dans cet article, je soutiens que si la critique de l’économie politique s’avère essentielle pour comprendre les développements de l’intelligence artificielle, il est nécessaire de dépasser son cadre d’analyse strictement économiciste afin de saisir les transformations qualitatives opérées dans le mode de reproduction des sociétés capitalistes avancées qui sont générées par la logique cybernétique de régulation sociale au fondement de l’intelligence artificielle.
L’intelligence artificielle, une forme de technologie spécifiquement capitaliste
Afin de réfléchir politiquement à l’intelligence artificielle, il convient d’emblée d’adopter une posture critique à l’endroit de la technique en elle-même. L’idéologie libérale dominante postule que la technique est neutre, c’est-à-dire qu’elle ne serait pas modelée par les rapports sociaux et qu’elle participerait au progrès des sociétés de manière évolutive et linéaire suivant l’adage selon lequel « comme on ne peut pas arrêter le progrès, il faut s’y adapter, en faisant un usage éthique et responsable d’une intelligence artificielle inclusive et respectueuse de la diversité ». Ce prêt-à-penser qui agit comme un discours de légitimation des transformations contemporaines du capitalisme fait l’impasse sur la nature de la technique. Celle-ci n’est pas neutre, elle exprime plutôt des rapports sociohistoriques de domination, bref, c’est de l’idéologie matérialisée.
Suivant cette posture critique, il convient donc d’historiciser l’émergence de l’intelligence artificielle dans la continuité des premiers travaux du domaine de la cybernétique qui apparaissent dans le contexte de la Seconde Guerre mondiale. Derrière l’apparente neutralité de cette nouvelle science du contrôle et de la communication, on retrouve le financement du complexe militaro-industriel américain qui cherchait à développer une conception technocratique et dépolitisée de régulation sociale face à la montée de l’attrait pour le socialisme dans les pays périphériques[2]. En plus de la révolution cybernétique, les développements contemporains de ce que certains nomment le capitalisme de surveillance ou de plateforme tirent également leur origine de la révolution managériale[3] qui est concomitante à l’avènement de la corporation, ou société anonyme par actions, comprise comme la forme institutionnelle prédominante du capitalisme avancé[4]. Cette mutation institutionnelle est fondamentale puisque la médiation des rapports sociaux au moyen du marché est remplacée par le contrôle communicationnel exercé par la corporation sur son environnement interne (les employé·es) et externe (les consommateurs·trices, les États, les autres firmes). En effet, le management se base sur le postulat cybernétique selon lequel l’organisation est un système de circulation et de contrôle de l’information qui permet sa reproduction élargie[5]. Les critiques du capitalisme de surveillance comme Zuboff[6] oublient généralement de situer historiquement cette « nouvelle » forme de capitalisme. En effet, l’émergence de la corporation au début du XXe siècle va modifier substantiellement la régulation de la pratique sociale en ce qu’il s’agira désormais de modifier les attitudes des individus afin d’arrimer la dynamique de surproduction du système industriel à celle de la surconsommation[7]. C’est en effet à cette époque que le marketing développera les techniques de surveillance des individus et de captation de l’attention qui sont à l’origine des outils de profilage des comportements des consommateurs utilisés par les géants du numérique (GAFAM). À côté de la publicité et du secteur financier, les premiers développements dans le domaine de l’intelligence artificielle tout comme l’ancêtre de l’Internet, ARPANET, s’expliquent par la nécessité d’absorber le surplus de valeur généré par la suraccumulation capitalistique des grandes corporations au moyen des dépenses publiques dans le domaine militaire afin de maintenir la croissance économique[8]. Le complexe militaro-industriel devrait en ce sens être rebaptisé « national-security, techno-financial, entertainment-surveillance complex[9] » (sécurité nationale, techno-financière, divertissement-surveillance) puisqu’il exprime la spécificité de l’impérialisme américain de l’après-guerre qui, en prenant appui sur la cybernétique, ne vise pas uniquement à exporter ses capitaux, mais également à étendre le modèle de la société machinique américaine à l’ensemble de la planète.
Intelligence artificielle et transformations institutionnelles du capitalisme avancé
Il faut donc éviter de tomber dans le piège dans lequel sont tombés plusieurs commentateurs depuis les mirages de la nouvelle économie à la fin des années 1990 selon lequel l’économie numérique serait propulsée par une nouvelle logique d’accumulation axée sur le savoir, les données numériques ou encore les algorithmes. En réalité, cette « nouvelle » logique d’accumulation remonte au début du XXe siècle avec l’avènement de la corporation. C’est l’économiste institutionnaliste Thorstein Veblen qui fut le premier à analyser les conséquences du passage d’un capitalisme libéral vers le capitalisme dit avancé[10]. Dans ce contexte, l’accumulation du capital ne s’effectue plus au moyen de la concurrence par les prix, mais plutôt au moyen de pratiques rentières de prédation de la valeur qui s’appuient sur l’exploitation d’actifs dits intangibles, c’est-à-dire par des droits de propriété intellectuelle, des brevets, des marques de commerce, des fusions et acquisitions, des alliances stratégiques avec d’autres entreprises, ou encore par des ententes formelles et informelles avec les gouvernements[11]. Au sein des sociétés capitalistes avancées, les principes de concurrence dans le cadre d’un marché autorégulé sont remplacés par la capacité de contrôle sur l’économie et l’ensemble de la société opérée par les grandes organisations corporatives. En clair, le marché est remplacé par la planification au sein des corporations dont le pouvoir repose sur leur capacité de capitaliser des flux de revenus futurs dans les marchés financiers.
Relativement marginaux au début du XXe siècle, les actifs intangibles représentent à l’heure actuelle 95 % de la valeur des cinq plus grandes corporations cotées en bourses, c’est-à-dire les GAFAM[12]. En ce sens, la spécificité du capitalisme contemporain ne repose pas tant sur l’émergence d’une nouvelle forme de « travail digital », immatériel ou cognitif, ou encore sur une nouvelle forme de marchandise prédictive produite par des algorithmes, mais plutôt sur la valorisation financière d’une nouvelle classe d’actifs intangibles que sont les données numériques. Le pouvoir de capitalisation des géants du numérique s’appuie sur l’appropriation de la valeur qui provient de l’économie productive, c’est-à-dire le travail abstrait en langage marxien, lequel est produit à l’extérieur des frontières légales de ces corporations. En termes marxiens, la valeur d’une marchandise correspond à la représentation du temps de reproduction de la force de travail[13]. Selon cette acception, il ne fait aucun sens de parler de valeur d’un produit de la connaissance, tel que l’information, les données numériques ou les algorithmes, puisque le temps de reproduction d’une connaissance tend vers zéro. Ainsi, la logique d’accumulation rentière du capitalisme numérique consiste à restreindre l’accès à la connaissance commune qui est produite socialement en vue d’en faire un actif intangible, ce qui signifie qu’elle consiste à s’approprier la valeur qui est produite à l’extérieur de l’entreprise[14].
La montée en puissance des plateformes numériques s’inscrit dans le contexte de la financiarisation de l’économie, où les normes de la valeur actionnariale ont imposé des rendements excessifs et court-termistes aux corporations; ces dernières ont été contraintes de sous-traiter une partie de leurs activités les plus risquées, notamment celles de recherche et développement. C’est dans ce contexte également qu’une série de politiques de dérèglementations complémentaires au sein des secteurs de la finance, des communications et de la recherche a permis de transformer la connaissance en actifs financiers pouvant être capitalisés dans la sphère financière. La loi Bay-Dohle aux États-Unis est considérée comme l’acte fondateur de cette « nouvelle économie du savoir » en ce qu’elle a permis de commercialiser sous forme de brevets la recherche financée publiquement, une pratique qui était interdite auparavant en vertu des principes de la science ouverte[15]. De manière concomitante, les politiques de dérèglementation des fonds de pension américains ont permis à ces derniers d’investir dans des firmes qui ne déclaraient aucun revenu, mais qui possédaient de nombreux actifs intangibles[16], ce qui a nourri la gigantesque bulle spéculative qui a éclaté lors du krach de la nouvelle économie en 2000. Dans le secteur des communications, les politiques de dérèglementation ont permis la convergence des médias avec les firmes technologiques, pavant la voie à la création de l’oligopole du numérique dominé par les GAFAM[17].
Si la propriété intellectuelle était au cœur de la première phase de déploiement de l’économie numérique (1990-2000), c’est plutôt la question des données numériques qui surgira comme nouvelle source de valorisation à la suite de la crise financière de 2008[18]. En effet, les grandes plateformes ont développé un modèle d’affaires consistant à transformer les données personnelles en un actif intangible qui est valorisé dans la sphère financière[19]. Cette dynamique économique rentière permet aux plateformes de s’approprier la valeur générée par l’économie productive, participant ainsi à la consolidation des monopoles de la connaissance transnationaux[20]. Comme la rente consiste essentiellement en une construction institutionnelle, la production d’un discours qui prend la forme d’une convention d’interprétation est nécessaire afin de fonder la confiance des investisseurs financiers. L’emballement médiatique entourant la révolution instaurée par l’intelligence artificielle générative rendue possible au moyen des algorithmes d’apprentissage automatique (machine learning) et d’apprentissage profond (deep learning)[21] doit être compris comme un discours produit par la communauté financière visant à nourrir l’espoir que les revenus futurs de ce secteur seront suffisamment élevés pour justifier l’investissement[22].
La puissance des GAFAM repose donc sur leur capacité à quantifier l’inquantifiable – les sentiments humains, l’amour, le jugement, la créativité, etc. – pour ainsi transformer l’ensemble de la vie sociale en flux de revenus futurs qu’ils sont en mesure de s’approprier. Les GAFAM usent de diverses stratégies extraéconomiques afin de transférer de la survaleur provenant d’autres secteurs de l’activité productive dans une dynamique rentière et à restreindre l’accès aux flux de revenus à d’autres capitalistes subordonnés. En effet, la production physique des biens n’est plus la principale source de profits pour ces entreprises; celles-ci ont recours à la sous-traitance vers des firmes subordonnées dont les travailleuses et les travailleurs sont surexploités. Elles misent plutôt sur le contrôle de l’accès à l’information et à la connaissance, que ce soit par les services infonuagiques, l’accès aux profils des utilisatrices et utilisateurs pour la vente de publicité ou encore l’accès à leurs logiciels de traitement automatisé des données numériques.
Les stratégies politiques de capitalisation des GAFAM sont nombreuses, allant de 1) l’accumulation sur les actifs immatériels (brevets, données transformées en actifs); 2) des stratégies politiques visant à influencer les lois en leur faveur (lobbying, évitement fiscal, etc.); 3) une logique de subordination des entreprises sous-traitantes; 4) et le contrôle d’un écosystème de la recherche et développement financé à même les fonds publics. En résumé, les géants du numérique ont mis en place une chaine globale d’appropriation de la valeur qui prend la forme d’un écosystème corporatif d’innovation qui leur permet de socialiser les risques et de privatiser les profits.
La dissolution de la société dans la régulation algorithmique du social
Comme je l’ai souligné précédemment, pour penser politiquement l’intelligence artificielle, il est nécessaire d’interroger l’idéologie qui est sous-jacente au développement des entreprises numériques afin de dépasser l’analyse strictement économique qui ne permet pas de saisir les transformations qualitatives qui se sont opérées dans le mode de régulation des sociétés capitalistes avancées dans leur ensemble. L’histoire des sciences et des technologies montre que derrière le développement des algorithmes autoapprenants qui permettent aux plateformes de collecter les données numériques, de les traiter et de les modéliser à des fins d’anticipation des comportements, on retrouve une conception de l’individu et de la société qui s’inspire des thèses de l’économiste néolibéral Friedrich Hayek. En effet, les algorithmes utilisés par les plateformes numériques s’appuient sur le modèle des réseaux de neurones développé par le psychologue Frank Rosenblat dans les années 1950 dont l’une des principales sources d’inspiration est la pensée d’Hayek[23]. L’apport fondamental d’Hayek à la pensée économique fut de redéfinir le marché à partir des postulats de la cybernétique. Il comparera le marché à un système de transmission de l’information semblable à un algorithme auquel les individus, eux-mêmes redéfinis comme des processeurs informationnels, doivent rétroagir[24]. Sur le plan politique, l’argumentaire d’Hayek visait explicitement à démontrer l’impossibilité théorique de la planification de type socialiste. Reconnaitre l’existence d’une entité nommée « société » qui transcenderait les individus conduirait selon lui à reconnaitre la possibilité du socialisme. Selon Hayek, toute tentative de saisir l’ensemble de la réalité sociale et économique en vue d’effectuer une quelconque forme de planification allait mener inévitablement au totalitarisme puisqu’il serait impossible de connaitre les savoirs tacites qui sont détenus par les acteurs individuels. On retrouve également l’influence hayékienne chez l’un des pionniers de l’intelligence artificielle dite symbolique, Herbert Simon, pour qui le principal objectif de l’intelligence artificielle est d’incorporer la rationalité idéalisée de l’entrepreneur capitaliste telle qu’on la retrouve dans les théories économiques néoclassiques[25]. En bon disciple du père du management, Frederick Winslow Taylor, pour qui il fallait fragmenter l’activité des travailleurs manuels afin de mieux les contrôler, Simon conceptualisera l’intelligence artificielle comme la décomposition du processus de prise de décision dans une organisation en vue de le rendre plus efficient dans le contexte où il est impossible d’avoir accès à l’ensemble des informations dans un environnement complexe. Dans sa théorisation de l’intelligence artificielle, Simon reprend donc la conception de la rationalité limitée des acteurs économiques qui avait été développée par Hayek dans le cadre de son débat sur le calcul socialiste où il voulait montrer la supériorité du marché face à la planification. Selon Simon, au contraire d’Hayek, une certaine forme de centralisation du pouvoir et de planification est nécessaire dans le cadre d’une économie dominée par les grandes organisations corporatives et il est possible d’effectuer celle-ci grâce à l’intelligence artificielle.
La nouvelle forme de contrôle social théorisée par les technocrates néolibéraux qui ont développé l’intelligence artificielle s’inscrit dans le passage du paradigme politique du gouvernement vers la conception technocratique de la gouvernance algorithmique. Le terme cybernétique provient du mot grec kubernêtes, qui signifie « pilote » ou « gouvernail »; il possède la même racine étymologique que celui de gouvernance. La gouvernance algorithmique correspond à une transformation sociétale fondamentale, que j’ai qualifiée de « révolution culturelle du capital », puisqu’elle repose sur le postulat néolibéral selon lequel « la société n’existe pas ». Si la société n’existe pas, les grandes organisations corporatives n’existeraient également pas, on ne pourrait donc pas les critiquer. Il n’existerait qu’un système composé d’un ensemble d’individus atomisés conçus comme des processeurs informationnels que l’on peut programmer. La gouvernance algorithmique décrit ainsi une nouvelle manière de gouverner propre aux sociétés capitalistes avancées qui consiste à mettre en place des mécanismes de pilotage et de décisions automatisés grâce à une mise en données du réel. La spécificité de la gouvernance algorithmique repose sur le postulat voulant qu’au moyen de l’accumulation, de l’analyse et du traitement d’une gigantesque quantité de données (les big data), il soit possible d’anticiper les évènements avant qu’ils surviennent. Grâce à l’accumulation et au traitement de ces données, il ne serait plus nécessaire de connaitre les causes des problèmes sociaux, comme le prétendait le paradigme politique du gouvernement; il s’agirait plutôt d’agir de manière préemptive sur le réel afin d’empêcher toute transformation structurelle de la société. La gouvernance algorithmique vient ainsi court-circuiter l’ensemble des médiations politiques qui avaient pour ambition d’instituer politiquement des finalités normatives communes en vue de l’émancipation collective. S’appuyant sur une logique d’hyperpersonnalisation, la gouvernance algorithmique a ainsi la prétention de produire une norme qui colle immédiatement à chacun des individus[26]. Il s’agit de la réalisation en acte du fantasme postmoderne d’un monde sans représentation commune de la réalité. C’est la possibilité de débattre de l’écart entre la norme et le fait, donc le fondement même du politique qui est anéanti dans le cadre d’une nouvelle dictature de l’état de fait qui vise à assurer le maintien du statu quo.
L’idéal d’autogestion qu’on retrouvait au cœur de l’idéologie californienne[27], laquelle a légitimé la montée en puissance des géants du numérique s’est ainsi mutée en egogestion, c’est-à-dire en gestion techno-bureaucratique d’individus particularisés qui, bien qu’émancipés des institutions sociales, se trouvent toujours plus dépendants de la capitalisation de leur existence[28]. En ce sens, en plus de constituer un lieu d’accumulation du capitalisme financiarisé, les plateformes numériques peuvent être considérées comme des dispositifs néolibéraux de subjectivation. Leur configuration réticulaire permet aux usagères et aux usagers de quantifier leurs activités et celles des autres, notamment en comparant leur popularité en fonction du nombre de contacts accumulés, participant ainsi à l’intégration de la rationalité cybernétique et néolibérale dans leur vie quotidienne. Les plateformes de type GAFAM ‒ en offrant des services personnalisés aux individus egogrégaires qui refusent d’adhérer à une quelconque forme de culture commune ‒ viennent court-circuiter le pouvoir des institutions politiques sous prétexte que la prise en charge des problèmes sociaux (en santé, environnement, culture, éducation, etc.) par les algorithmes est plus efficace que les services publics.
Penser un monde postcapitaliste et postnumérique
En résumé, la stratégie de prédation des plateformes numériques consiste en ce que David Harvey nomme une accumulation par dépossession[29]. En effet, les GAFAM investissent massivement à l’heure actuelle dans les domaines qui sont considérés comme relevant des services publics ou du bien commun, notamment, la culture, la santé et l’éducation[30]. L’introduction des technologies numériques et de l’intelligence artificielle dans ces secteurs vise à transformer l’ensemble de l’activité sociale en données qui deviendront des actifs sur lesquels les géants technologiques pourront ponctionner une rente. C’est pourquoi le combat pour la défense des services publics doit impérativement être lié à une opposition farouche face à la numérisation généralisée du monde.
Pour penser politiquement une sortie du capitalisme à l’ère numérique, il faut se défaire de la conception fallacieuse selon laquelle il suffirait de mettre en place des règles éthiques afin d’encadrer l’usage de l’intelligence artificielle afin que l’innovation technologique soit plus équitable, plus représentative de la diversité et plus inclusive. L’intelligence artificielle est une technologie spécifiquement capitaliste en ce qu’elle est le produit du « national-security, techno-financial, entertainment-surveillance complex ». L’intelligence artificielle correspond à l’aboutissement de la logique d’abstraction et de quantification de l’activité humaine qu’on retrouve au fondement de la domination dépersonnalisée du capitalisme. Comme la marchandise, la technique moderne agit comme un fétiche, c’est-à-dire qu’elle fait écran. L’intelligence artificielle masque les immenses flux d’énergie humaine et naturelle nécessaires à son fonctionnement, elle fait donc écran sur le fait que son « usage » est prédéterminé par des impératifs productivistes et destructeur de l’environnement[31]. Comme le signalait l’historien de l’économie Harold Innis, toute technologie possède un biais qui s’exprime en termes spatiotemporels permettant à la classe dominante de contrôler l’espace et le temps et ainsi de monopoliser la connaissance[32]. Selon Innis, au sein des technologies de communication à l’ère industrielle, on retrouve une conception abstraite et mécanique du temps qui conduit à une forme de présentisme qui a pour effet de nous rendre amnésiques face à la réalité du développement aveugle des sociétés capitalistes. Depuis trois siècles, cette dernière vise la mise en place de moyens toujours plus perfectionnés pour automatiser les procédures de production, de décision et de contrôle, et expulser la subjectivité humaine au profit de mécanismes pseudo-objectifs, et ce, afin d’assurer la « soumission durable » de l’humanité à la mégamachine capitaliste et à son monopole de la connaissance automatisée. En ce sens, il est illusoire de croire qu’une révolution pourrait être orchestrée à partir des plateformes numériques comme Facebook ou TikTok puisque leur configuration encourage des comportements tyranniques de la part d’individus narcissiques qui, équipés d’outils leur donnant un sentiment d’omnipotence abstraite, mais politiquement impotents, cherchent à prendre leur revanche sur ce qui subsiste encore de monde commun en exprimant leur colère et leur ressentiment en ligne. Cette pratique, bien qu’elle n’ait aucune incidence sur la logique du système, même qu’elle le nourrit, fait uniquement office de catharsis[33]. Bref, pour paraphraser Rosa Luxembourg, ou bien la société postcapitaliste sera postnumérique, ou bien on s’enfonce dans la barbarie technologique[34].
Par Maxime Ouellet, Professeur à l’École des médias de l’UQAM.
NOTES
- Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016. ↑
- Steve Joshua Heims, The Cybernetics Group, Cambridge (MA), The MIT Press, 1991. ↑
- James Burnham, The Managerial Revolution. What is Happening in the World, New York, John Day Co., 1941. ↑
- John Bellamy Foster et Robert McChesney, « Surveillance capitalism : monopoly-finance capital, the military-industrial complex, and the digital age », Monthly Review, vol. 66, n° 3, 2014 ; Nick Srnicek, Capitalisme de plateforme. L’hégémonie de l’économie numérique, Montréal, Lux, 2018. ↑
- Baptiste Rappin, Au fondement du management. Théologie de l’organisation. Volume 1, Nice, Les éditions Ovadia, 2014. ↑
- Soshana Zuboff, The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019. En français: L’âge du capitalisme de surveillance, Paris, Zulma, 2020. ↑
- Stuart Ewen, Conscience sous influence, Paris, Aubier Montaigne, 1983. ↑
- Foster et McChesney, op. cit., 2014. ↑
- Thimoty Erik Ström, « Capital and cybernetics », New Left Review, n° 135, mai-juin 2022, p. 23-41. ↑
- Éric Pineault, « Quelle théorie critique des structures sociales du capitalisme avancé », Cahiers de recherche sociologique, n° 45, 2008, p. 113-132. ↑
- Thorstein Veblen, The Theory of the Business Enterprise, New Brunswick, Transaction Books, 1904. ↑
- Dick Bryan, Michael Rafferty et Ducan Wigan, « Intangible capital », dans Leonard Seabrooke et Duncan Wigan (dir.), Global Wealth Chains. Asset Strategies in the World Economy, Oxford University Press, 2022, p. 89-113.NDLR. GAFAM : acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft. ↑
- Sur cette question, voir Maxime Ouellet, « Le travail en mutation », Nouveaux Cahiers du socialisme, n° 7, 2012, p. 20-31. ↑
- À ce sujet, voir Cecilia Rikap, Capitalism, Power and Innovation. Intellectual Monopoly Capitalism Uncovered, New York, Routledge, 2020. ↑
- Philip Mirowski, Science-Mart. Privatising American Science, Cambridge (MA), Harvard University Press, 2011. ↑
- Fabienne Orsi et Benjamin Coriat, « The new role and status of intellectual property rights in contemporary capitalism », Competition & Change, vol. 10, n° 2, 2006, p. 162-179. ↑
- Nikos Smyrnaios, Les GAFAM contre l’internet. Une économie politique du numérique, Paris, Institut national de l’audiovisuel (INA), 2017. ↑
- Sébastien Broca, « Communs et capitalisme numérique : histoire d’un antagonisme et de quelques affinités électives », Terminal, no 130, 2021. ↑
- Kean Birch et D. T. Cochrane, « Big Tech : four emerging forms of digital rentiership », Science as Culture, vol. 31, n° 1, 2022, p. 44-58. ↑
- Ugo Pagano, « The crisis of intellectual monopoly capitalism », Cambridge Journal of Economics, vol. 38, n° 6, 2014, p. 1409-1429. ↑
- NDLR. Pour plus d’informations concernant ce vocabulaire, on pourra consulter l’article d’André Vincent dans ce numéro : « Intelligence artificielle 101 ». ↑
- André Orléan, L’empire de la valeur. Refonder l’économie, Paris, Seuil, 2011. ↑
- Pablo Jensen, Deep earnings. Le néolibéralisme au cœur des réseaux de neurones, Caen, C&F éditions, 2021. ↑
- Philip Mirowski, Machine Dreams. Economics Becomes a Cyborg Science, Cambridge, Cambridge University Press, 2000. ↑
- Bruce Berman, « Artificial intelligence and the ideology of capitalist reconstruction », AI & Society, n° 6, 1992, p. 103-114. ↑
- Antoinette Rouvroy, « Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance », Le Club de Mediapart, 27 août 2012.
- Richard Barbrook et Amdy Cameron « The californian ideology », Science as Culture, vol. 6, n° 1, 1996, p. 44-72. ↑
- Jacques Guigou, La cité des ego, Paris, L’Harmattan, 2008. ↑
- David Harvey, « Le “nouvel impérialisme” : accumulation par expropriation », Actuel Marx, vol. 35, n° 1, 2004, p. 71-90. ↑
- José Van Dijck, Thomas Poell et Martijn de Waal, The Platform Society. Public Values in a Connected World, New York, Oxford University Press, 2018. ↑
- Alf Hornborg, La magie planétaire. Technologies d’appropriation de la Rome antique à Wall Street, Paris, Éditions divergences, 2021. ↑
- Harold Innis, The Bias of Communication, Toronto, University of Toronto Press, 2008. ↑
- Éric Sadin, L’ère de l’individu tyran. La fin d’un monde commun, Paris, Grasset, 2020. ↑
- À ce sujet, voir Jonathan Crary, Scorched Earth. Beyond the Digital Age to a Post-Capitalist World, New York, Verso, 2022.

Intelligence artificielle 101

Qu’est-ce que l’intelligence artificielle ?
« L’intelligence artificielle (IA, ou AI pour Artificial Intelligence) consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d’imiter une forme d’intelligence réelle. L’IA se retrouve implémentée dans un nombre grandissant de domaines d’application[1]. »
L’intelligence artificielle est donc un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l’intelligence humaine[2].
L’IA s’appuie notamment sur les théories des mathématiques et des sciences cognitives. Elle fait aussi appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique en s’appuyant entre autres sur la théorie des décisions. Par extension, l’IA comprend, dans le langage courant, les dispositifs qui imitent ou remplacent l’humain dans certaines mises en œuvre de ses fonctions cognitives[3].
Évolution de l’IA
L’évolution de l’intelligence artificielle peut être résumée en sept étapes principales[4] :
- Le temps des prophètes : dans les années 1950, les pionniers de l’IA font des prédictions audacieuses sur les capacités futures des machines, mais ils surestiment largement les progrès à venir.
- Les années sombres : dans les années 1960 et 1970, l’IA connait un ralentissement et une perte de financement, notamment à cause des limites des méthodes symboliques et des critiques de James Lighthill.
- Le retour en grâce : dans les années 1980, l’IA bénéficie d’un regain d’intérêt et de soutien, grâce aux succès des systèmes experts, des réseaux de neurones et de la robotique.
- Le second hiver : dans les années 1990, l’IA subit à nouveau une désillusion et une concurrence accrue d’autres disciplines informatiques, comme les bases de données ou le Web.
- L’ère du big data : dans les années 2000, l’IA profite de l’explosion des données disponibles et de l’amélioration des capacités de calcul, ce qui lui permet de développer des applications dans de nombreux domaines, comme la reconnaissance vocale, la traduction automatique ou la recherche d’information.
- L’avènement de l’apprentissage profond : dans les années 2010, l’IA connait une révolution avec l’émergence de l’apprentissage profond, une technique qui utilise des couches successives de neurones artificiels pour apprendre à partir de données complexes et non structurées, comme les images, les sons ou les textes.
- L’horizon de l’intelligence artificielle générale : dans les années 2020, l’IA se confronte au défi de l’intelligence artificielle générale (IAG), c’est-à-dire à la capacité d’une machine à accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire, voire à dépasser l’intelligence humaine. Ce défi soulève des questions éthiques, sociales et philosophiques, ainsi que des incertitudes sur les impacts de l’IA sur l’humanité.
Définitions
John McCarthy, le principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky, définit l’IA ainsi : « C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l’intelligence humaine, mais l’IA ne doit pas se limiter aux méthodes qui sont biologiquement observables[5] ».
L’IA est également définie par Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le caractère « artificiel » dû à l’usage des ordinateurs ou de processus électroniques élaborés et le caractère « intelligence » associé à son but d’imiter le comportement humain. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.
Les types d’IA
L’intelligence artificielle se décline en trois catégories principales[6] :
- IA faible (ou IA étroite, restreinte) : ce type d’IA est conçu pour effectuer des tâches spécifiques sans posséder de conscience ou d’intelligence générale. Par exemple, l’IA faible peut être utilisée pour la reconnaissance vocale, la recherche sur Internet ou encore le jeu d’échecs. Cependant, sa capacité d’apprentissage et d’adaptation est limitée à sa programmation initiale. Elle ne peut pas comprendre ni s’adapter en dehors de son domaine de spécialisation défini.
- IA forte (ou IA générale) : contrairement à l’IA faible, l’IA forte possède une intelligence et une conscience similaires à celles des humains. Elle est capable de résoudre des problèmes dans divers domaines sans être limitée à une seule tâche. En somme, elle reproduit l’intelligence humaine de manière beaucoup plus authentique.
- IA superintelligente : ce type hypothétique d’IA surpasserait l’intelligence humaine, excédant les capacités humaines dans tous les domaines, de la créativité à la prise de décision. Cependant, à ce jour, ce niveau d’intelligence artificielle n’a pas encore été atteint. De nombreux experts considèrent que l’avènement de ce type d’IA est fortement improbable.
Techniquement, comment ça marche ?
En général, on peut dire que l’IA se compose de quatre éléments clés : la puissance de calcul, les mégadonnées, la prise de décision par les algorithmes et l’argent.
Aujourd’hui, les géants de l’informatique tels que Google, Microsoft, Apple, IBM et Facebook sont tous engagés dans la recherche et le développement de l’IA. Ils ont mis en place des réseaux de neurones artificiels, composés de serveurs capables de traiter des calculs complexes sur de gigantesques quantités de données à des vitesses en croissance exponentielle. Ces réseaux sont conçus pour imiter le fonctionnement du cerveau humain, et permettent à ces systèmes d’apprendre et de s’adapter avec le temps.
Les systèmes d’IA sont formés à partir de grandes quantités de données. Ils utilisent des capacités informatiques pour analyser ces données et, sur cette base, prennent des décisions. C’est cette capacité de prise de décision qui distingue l’IA de nombreuses autres technologies comme les systèmes experts, par exemple.
Ainsi, tous les bots informatiques, les vidéos falsifiées et les images manipulées ne sont pas nécessairement le produit de l’IA. Ce qui compte, c’est si la technologie est capable de prendre des décisions. Un chatbot basé sur des règles, par exemple, renvoie des réponses prédéterminées en fonction de certaines conditions, comme l’utilisation d’un mot-clé. Il n’est pas nécessaire d’utiliser l’IA pour cela.
En revanche, un agent conversationnel utilise le traitement automatique du langage naturel (TLN), un sous-domaine de l’IA, pour extraire des informations du langage humain. Il évalue le contenu et le contexte, puis choisit une ligne de conduite, par exemple les mots à utiliser, la structure de la phrase et le ton à adopter en réponse. Contrairement à un simple chatbot basé sur des règles, un agent conversationnel doté d’IA ne renvoie pas toujours la même réponse à la même question.
Les outils basés sur l’IA comportent donc un certain degré d’incertitude ou de probabilité. Ils utilisent l’apprentissage automatique et la prise de décision algorithmique pour se rapprocher de plus en plus de la réalisation des tâches pour lesquelles ils ont été conçus. Cependant, ils le font d’une manière qui n’a pas été spécifiquement programmée. Les systèmes d’IA ont un certain degré d’autonomie, ce qui les rend beaucoup plus puissants. Cette autonomie est ce qui distingue véritablement l’IA et lui confère sa puissance.
Il existe toutefois une confusion dans le débat public entre intelligence artificielle, apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais imbriquées. L’intelligence artificielle englobe l’apprentissage automatique, qui lui-même englobe l’apprentissage profond.

Diagramme de Venn montrant comment s’imbriquent les notions d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond[7].
Apprentissage automatique
L’apprentissage automatique consiste à permettre au modèle d’IA d’apprendre à effectuer une tâche au lieu de spécifier exactement comment il doit l’accomplir. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l’apprentissage. La méthode de la rétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l’ajuster en conséquence. L’apprentissage automatique nécessite un moyen d’évaluer la qualité des réponses fournies par le modèle.
Réseaux de neurones
Les réseaux de neurones artificiels sont inspirés du fonctionnement du cerveau humain : les neurones sont en général connectés à d’autres neurones en entrée et en sortie. Les neurones d’entrée, lorsqu’ils sont activés, agissent comme s’ils participaient à un vote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l’équivalent artificiel, les « neurones d’entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de l’apprentissage.
À part la fonction d’activation, les réseaux de neurones artificiels n’effectuent en pratique que des additions et des multiplications matricielles, ce qui fait qu’ils peuvent être accélérés par l’utilisation de processeurs graphiques. En théorie, un réseau de neurones peut apprendre n’importe quelle fonction.
Apprentissage profond
L’apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les sorties, d’où le terme « profond ». L’utilisation de processeurs graphiques pour accélérer les calculs et l’augmentation des données disponibles a contribué à la montée en popularité de l’apprentissage profond. Il est utilisé notamment en vision par ordinateur, en reconnaissance automatique de la parole et en traitement du langage naturel (ce qui inclut les grands modèles de langage).
Grands modèles de langages
Les grands modèles de langage sont des modèles de langage ayant un grand nombre de paramètres, typiquement des milliards. Ils reposent très souvent sur l’architecture « transformeur ».
Les transformeurs génératifs pré-entrainés (Generative Pretrained Transformers ou GPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entrainement » consiste à prédire, étant donné une partie d’un texte, le token suivant (un token étant une séquence de caractères, typiquement un mot, une partie d’un mot ou de la ponctuation). Cet entrainement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d’accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entrainement, en prédisant un à un les tokens suivants. En général, une autre phase d’entrainement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d’entrainement (utilisant souvent une technique appelée RLHF) permet notamment de réduire un phénomène appelé « hallucination », où le modèle génère des informations d’apparence plausible mais fausses.
Avant d’être fourni au modèle, le texte est découpé en tokens. Ceux-ci sont convertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l’intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d’attention. Les couches d’attention combinent les concepts entre eux, permettant de tenir compte du contexte et de saisir des relations complexes.
Ces modèles sont souvent intégrés dans des agents conversationnels, où le texte généré est formaté pour répondre à l’utilisateur ou l’utilisatrice. Par exemple, l’agent conversationnel ChatGPT exploite les modèles GPT-3.5 et GPT-4. En 2023 font leur apparition des modèles grand public pouvant traiter simultanément différents types de données comme le texte, le son, les images et les vidéos, tel Google Gemini.
Domaines d’application[8]
L’intelligence artificielle trouve des applications variées dans différents domaines. Voici un aperçu de son utilisation en médecine, dans le domaine militaire, le renseignement policier et le droit. On aurait aussi pu donner des exemples dans les domaines de la logistique et du transport, de l’industrie, de la robotique, des arts, de la politique, etc.
- Médecine
- Diagnostic et détection précoce : l’IA peut analyser rapidement et précisément de grandes quantités de données médicales, facilitant ainsi le diagnostic précoce de maladies et d’affections. Elle peut détecter des modèles et des signes subtils qui échappent parfois à l’œil humain.
- Structuration des données des patients : l’IA collecte, analyse et organise méthodiquement les données massives issues des patients et patientes, ce qui facilite leur traitement ultérieur par les professionnels de la santé.
- Prise en charge thérapeutique : l’IA peut guider les médecins dans la prise en charge thérapeutique des patients en se basant sur des cas passés et en croisant diverses données.
- Domaine militaire
- Surveillance et reconnaissance : l’IA est utilisée pour surveiller et reconnaitre des cibles, des mouvements de troupes et des activités ennemies.
- Prévention des attaques : elle peut aider à anticiper et à prévenir les attaques en analysant des données et des schémas.
- Assistance au commandement : l’IA peut fournir des informations et des recommandations aux commandants militaires.
- Gestion de l’approvisionnement et de la logistique : elle optimise la gestion des ressources et des approvisionnements.
- Contrôle de drones et de robots : l’IA permet de piloter ces dispositifs de manière autonome.
- Renseignement policier
- Analyse de données criminelles : l’IA peut aider à analyser des données complexes pour détecter des schémas criminels, des tendances et des menaces potentielles.
- Identification de suspects : elle peut faciliter l’identification de suspects à partir d’images de vidéosurveillance ou d’autres sources.
- Prédiction de crimes : l’IA peut anticiper les zones à risque et les moments propices à la criminalité.
- Droit
- Recherche juridique : l’IA peut analyser des textes juridiques, des précédents et des décisions de justice pour aider les avocats et les juges dans leurs recherches.
- Automatisation des tâches juridiques : elle peut automatiser des tâches telles que la rédaction de contrats, la gestion des documents et la facturation.
- Prédiction des résultats de procès : l’IA peut évaluer les chances de succès d’un procès en fonction des éléments disponibles.
Le matériel de l’artificielle intelligence
Avec les algorithmes et les mégadonnées (big data), le matériel qui sous-tend l’intelligence artificielle est la troisième composante essentielle pour permettre des capacités et des performances exceptionnelles. Il joue un rôle central dans l’innovation moderne et façonne le paysage de l’IA.
Les principales composantes matérielles clés de l’IA sont : les unités de traitement graphique (GPU), les unités de traitement tensoriel (TPU), les unités de traitement neuronal (NPU), les processeurs centraux (CPU), la mémoire et le stockage, les réseaux (réseaux locaux, LAN, et les réseaux étendus, WAN, qui permettent la communication entre les systèmes d’IA), la connectivité (la 5G offre une connectivité rapide pour les appareils mobiles et l’Internet des objets) et le matériel spécialisé.
En somme, ces composantes matérielles travaillent ensemble pour traiter et analyser de grandes quantités de données, permettant aux systèmes d’IA d’apprendre, de s’adapter et de faire des prédictions. L’IA ne serait pas possible sans cette puissance matérielle sous-jacente.
L’exemple de Nvidia[9]
Parmi les fabricants de composantes matérielles destinées à l’IA, l’entreprise Nvidia, bien que moins connu du grand public que les géants du Web, compte parmi les principaux joueurs dans ce domaine. Elle est actuellement la deuxième entreprise en termes de capitalisation boursière de la planète dans le domaine de l’IA, devancée uniquement par Microsoft. Elle présente plusieurs avantages, dont une puissance de calcul exceptionnelle. Les unités de traitement graphique (GPU) de Nvidia sont devenues un pilier fondamental de l’IA, permettant des avancées significatives dans le domaine de l’apprentissage automatique et des réseaux de neurones.
L’argent, bien matériel de l’intelligence artificielle
Avec les algorithmes, les mégadonnées et le matériel informatique, l’argent constitue la quatrième composante de l’intelligence artificielle, essentielle à son développement et à son déploiement, capitalisme oblige.
Coûts financiers de l’IA
L’intelligence artificielle est un domaine qui engendre des coûts astronomiques[10] pour les développeurs. Une grande partie des pertes associées aux IA génératrices provient des coûts d’inférence. Pour maintenir des IA capables de fournir des réponses optimales en un temps très court, une puissance informatique considérable est requise dès les phases de test. Cela implique l’utilisation de supercalculateurs actifs en permanence. Des cartes graphiques hautement performantes, coûtant environ 30 000 dollars chacune,, sont essentielles pour ces calculs.
Les coûts augmentent aussi avec la popularité de l’outil IA. Plus une IA est connue, plus elle reçoit de requêtes, ce qui entraine des prix plus élevés pour la génération de réponses. La longueur de la requête impacte également les coûts. Des requêtes plus longues reviennent plus cher aux entreprises derrière ces IA génératrices.
Le modèle économique de l’IA est limité : Par exemple, ChatGPT, dont l’application est gratuite pour les utilisateurs et utilisatrices, a engendré des pertes estimées à 540 millions de dollars l’an passé. Pour compenser ces pertes, OpenAI propose des abonnements à 20 dollars par mois pour accéder à des versions plus performantes de ChatGPT. Chaque requête (prompt) d’IA générative coûterait entre 0,01 $ et 0,36 $, selon les estimations. À titre d’exemple, un service qui coûte 10 $ par utilisateur et par mois, entrainerait une perte de 20 $ par mois; certains utilisateurs coûteraient au fournisseur plus de 80 $[11].
Coûts environnementaux de l’IA
L’intelligence artificielle a un impact considérable en termes de consommation d’énergie et en ressources naturelles.
L’entrainement des modèles d’IA, notamment les réseaux neuronaux, nécessite une grande quantité de calculs effectués dans des centres de données qui consomment énormément d’électricité[12]. Par rapport à l’apprentissage chez les humains, les tâches d’entrainement sont inefficaces car les modèles d’IA doivent lire une grande quantité de données pour apprendre à les comprendre. Par exemple, le modèle linguistique BERT (Bidirectional Encoder Representations from Transformers) a utilisé 3,3 milliards de mots tirés de livres anglais et de pages Wikipédia pour comprendre la langue.
L’empreinte carbone de l’élaboration de l’IA constitue un risque majeur. Selon certaines estimations, l’entrainement d’un modèle d’IA génère autant d’émissions de carbone que cinq voitures pendant toute leur durée de vie, fabrication comprise. Les chercheurs et développeurs en IA doivent être conscients de ces coûts énergétiques croissants et chercher des moyens d’optimiser l’efficacité énergétique de leurs modèles. L’utilisation de l’IA générative peut également contribuer à la sobriété écologique en surveillant les schémas de consommation d’énergie des bâtiments et en identifiant des opportunités d’économies.
Vers un monopole des géants du Web
Les IA généralistes sont en difficulté en raison des coûts élevés. Actuellement, les IA généralistes, comme ChatGPT, sont capables de réaliser de nombreuses tâches. Une possibilité serait de développer des IA spécialisées pour des tâches spécifiques, fonctionnant localement, afin de réduire les coûts liés à l’utilisation du « cloud ».
À long terme, seules les grandes entreprises américaines telles que Google, Microsoft, Meta, Apple et Amazon pourraient gérer des IA généralistes car elles ont la capacité d’absorber les pertes financières associées à leur utilisation. Cependant, même ces géants ne pourraient pas se tourner vers une utilisation à 100 % d’IA. La recherche via l’intelligence artificielle coûte six fois plus cher qu’une recherche Google standard.
Les GAFAM explorent des solutions pour réduire ces coûts. Par exemple, des puces dédiées à l’intelligence artificielle sont en projet, ce qui pourrait réduire les dépenses tout en maintenant une certaine qualité de service. De même, des centres de calcul et de données alimentées en énergie renouvelable sont en construction, pas tant pour l’environnement que pour réduire les coûts.
Investissements en IA par pays et par entreprise
Le graphique ci-joint, basé sur les données du rapport 2023 AI Index Report[13] de l’Université de Stanford, montre les pays où les sommes les plus importantes ont été investies dans des entreprises d’IA entre 2013 et 2022. Les États-Unis arrivent largement en tête avec un montant de 248,9 milliards de dollars, suivis par la Chine (95,1 milliards de dollars) et le Royaume-Uni (18,2 milliards de dollars). À remarquer, le Canada au cinquième rang avec des investissements de 8,8 milliards de dollars sur cette période, bien que n’ayant aucune entreprise dans le top 20 des entreprises du domaine de l’IA. C’est que les investissements au Canada sont souvent le fait d’entreprises multinationales étrangères en partenariat avec des laboratoires et centres de recherche universitaires ou sans but lucratif, mais largement financés par des fonds publics.
En 2022, les investissements les plus importants dans l’IA ont été réalisés dans le domaine de la médecine et de la santé (6,1 milliards de dollars), selon le rapport.

Parmi les 20 plus grandes entreprises mondiales dans le domaine de l’intelligence artificielle, classées par capitalisation boursière[14] , on compte 19 entreprises américaines ou chinoises et une seule d’un autre pays, Israël. Ces entreprises représentent un mélange de matériel, de logiciels et de services basés sur l’IA.
| Capitalisation boursière (en milliards de dollars US)[15] | |||
| Rang | Entreprise | Pays | $ (US) |
| 1 | Microsoft | États-Unis | 3 040,00 $ |
| 2 | NVIDIA | États-Unis | 1 980,00 $ |
| 3 | Alphabet (Google) | États-Unis | 1 712,00 $ |
| 4 | Meta (Facebook) | États-Unis | 1 246,00 $ |
| 5 | Tesla | États-Unis | 639,00 $ |
| 6 | Alibaba Group | Chine | 181,00 $ |
| 7 | IBM | États-Unis | 169,00 $ |
| 8 | Palantir | États-Unis | 54,00 $ |
| 9 | Baidu | Chine | 40,00 $ |
| 10 | Tencent | Chine | 39,00 $ |
| 11 | Meituan | Chine | 37,00 $ |
| 12 | JD.com | Chine | 34,00 $ |
| 13 | Pinduoduo | Chine | 30,00 $ |
| 14 | Xiaomi | Chine | 25,00 $ |
| 15 | NetEase | Chine | 24,00 $ |
| 16 | Hikvision | Chine | 23,00 $ |
| 17 | Mobileye | Israël | 20,00 $ |
| 18 | Dynatrace | États-Unis | 14,00 $ |
| 19 | UiPath | États-Unis | 13,00 $ |
| 20 | Sogou | Chine | 4,00 $ |
À remarquer : Apple ne fait pas partie du tableau bien que plusieurs experts estiment qu’Apple investit présentement d’énormes ressources en IA. Il y aurait deux explications à ce constat. L’entreprise n’est pas considérée comme un fournisseur de services d’IA par les statisticiens et Apple a une réputation d’opacité légendaire quant à ses projets de développement.
Prévisions du chiffre d’affaires du marché de l’IA dans le monde de 2021 à 2030 en millions de dollars US

Source: Statista Research Department, 13 février 2024.
L’encadrement de l’IA ?
Aucune loi, mesure ou réglementation n’encadre présentement le développement, le déploiement et l’utilisation de l’IA, et cela, à aucun niveau gouvernemental d’aucun pays et pas plus aux différents niveaux supranationaux. Tout est laissé aux bons soins des secteurs privé ou public de s’autoréguler. C’est réellement le Far West numérique. Quelques initiatives du secteur privé ou d’organisations de la société civile ont commencé à intenter des poursuites, à formuler des revendications et même à entreprendre des luttes pour limiter les effets néfastes des applications de l’IA dans certains domaines particuliers.
Divers projets de loi sont néanmoins à l’étude présentement un peu partout sur la planète, souvent le résultat de pressions de collectifs de chercheurs et d’experts dans divers domaines dont celui de l’IA ou d’organisations de la société civile. Tous ces projets ont en commun la même belle intention : favoriser le déploiement d’une IA responsable, verte, équitable, non discriminatoire et tutti quanti. Ils ont aussi en commun de faire des exceptions notables pour tout ce qui touche au secteur militaire, aux forces de l’ordre et aux services de renseignement.
Nous examinerons ici deux projets de loi, parmi les plus avancés en ce moment, soit ceux de l’Union européenne et de la Chine. Ils posent un minimum d’encadrement juridique au développement de l’IA, à son déploiement et à son utilisation. Au Canada et aux États-Unis, les projets de loi annoncés sont encore à l’état larvaire. Par exemple, le projet de loi de la Maison-Blanche a reçu l’appui des dirigeants des GAFAM (sauf Elon Musk). Cela dit tout sur la portée protectrice qu’aura cette loi sur les abus des géants de ce monde.
L’Union européenne
L’Union européenne (UE) a envisagé plusieurs projets de loi et règles pour encadrer l’intelligence artificielle. Ces projets visent à équilibrer la nécessité de prévenir les dangers liés à cette technologie et la volonté de ne pas prendre de retard.
Le 9 décembre 2023, le Parlement européen est parvenu à un accord provisoire avec le Conseil européen sur la loi sur l’IA. Le texte convenu devra être formellement adopté par le Parlement européen et son Conseil pour entrer en vigueur[16].
Voici un résumé des points clés[17] :
- Objectif général : L’UE vise à promouvoir une IA sûre et respectueuse des droits fondamentaux. Le projet de règlement présenté par la Commission en avril 2021 est un élément fondamental de la politique de l’UE visant à favoriser le développement et l’adoption, dans l’ensemble du marché unique, d’une IA sûre et licite qui respecte les droits fondamentaux.
- Définition d’un système d’IA : Le texte de compromis du Conseil restreint la définition à des systèmes développés au moyen d’approches d’apprentissage automatique et d’approches fondées sur la logique et les connaissances.
- Pratiques interdites en matière d’IA : Le texte étend aux acteurs privés l’interdiction d’utiliser l’IA à des fins de notation sociale. En outre, la disposition interdisant l’utilisation de systèmes d’IA qui exploitent les vulnérabilités d’un groupe de personnes donné couvre désormais également les personnes vulnérables en raison de leur situation sociale ou économique.
- Utilisation de systèmes d’identification biométrique à distance : le texte clarifie les objectifs pour lesquels une telle utilisation est strictement nécessaire à des fins répressives et pour lesquels les autorités répressives devraient donc être autorisées exceptionnellement à utiliser de tels systèmes.
Le projet de loi sur l’IA de l’UE établit des obligations pour les fournisseurs et pour les utilisateurs en fonction du niveau de risque lié à l’IA. Les dispositions définissent quatre niveaux de risque :
- Risque inacceptable : les systèmes d’IA à risque inacceptable sont considérés comme une menace pour les personnes et seront interdits (par exemple, des technologies qui prétendent « prédire » des infractions »). Ces systèmes comprennent :
- La manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques. Par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants.
- Un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles.
- Une catégorisation et une identification biométriques des personnes.
- Des systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale. Certaines exceptions peuvent être autorisées à des fins d’application de la loi.
- Risque élevé : ces systèmes d’IA doivent se conformer à des exigences strictes. Par exemple, les systèmes d’identification biométrique et de catégorisation des personnes ou les systèmes utilisés pour la gestion et l’exploitation d’infrastructures critiques. Le projet de loi définit aussi des obligations spécifiques pour les utilisateurs d’IA et pour les fournisseurs.
- Risque limité : ces systèmes d’IA doivent être évalués. Par exemple, les systèmes utilisés dans les jeux vidéo ou les filtres anti-pourriel.
- Risque minimal : la plupart des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie et ne nécessitent pas d’encadrement spécifique. Par exemple, les systèmes de recommandation.
La Chine
La Chine a récemment mis en place une nouvelle réglementation concernant les contenus générés par l’intelligence artificielle. Cette réglementation vise à maintenir la compétitivité du pays dans le domaine de l’IA tout en exerçant un contrôle strict. Voici les principales règles de cette réglementation[18].
Éthique
- Les systèmes d’IA générative doivent adhérer aux valeurs fondamentales du socialisme.
- Ils ne doivent pas menacer la sécurité nationale ni promouvoir le terrorisme, la violence ou la haine raciale.
- Les fournisseurs de services doivent présenter les contenus générés par l’IA comme tels et prévenir toute discrimination basée sur le sexe, l’âge et le groupe ethnique lors de la conception des algorithmes.
- Les logiciels d’IA ne doivent pas créer de contenu contenant des informations fausses et nuisibles.
- Les données utilisées pour l’entrainement des logiciels d’IA doivent être obtenues légalement et ne pas porter atteinte aux droits de propriété intellectuelle d’autrui.
Sécurité
- Les entreprises qui conçoivent des logiciels d’IA générative accessibles au grand public doivent empêcher les utilisateurs mineurs de dépendre de façon excessive de ces services.
- Elles doivent permettre aux utilisateurs de signaler les contenus inappropriés et supprimer rapidement tout contenu illégal.
- Des évaluations de sécurité sont requises, et les entreprises doivent soumettre des rapports sur leurs algorithmes aux autorités.
- Cette règle s’applique principalement aux entreprises dont les logiciels ont une influence sur l’opinion publique.
Angela Zhang, professeure de droit à l’Université de Hong Kong, a indiqué à l’Agence France-Presse que « la législation chinoise est à mi-chemin entre celle de l’Union européenne (UE) et celle des États-Unis, l’UE ayant l’approche la plus stricte et les États-Unis la plus souple[19] ».
GLOSSAIRE
Agent conversationnel
Logiciel capable de communiquer de façon bidirectionnelle avec un utilisateur en langage naturel, par messagerie instantanée ou au moyen d’une interface vocale. Ces « agencements technologiques sont capables de produire des paroles ou bien des écrits pendant des interactions avec des humains et de simuler des compétences humaines, des rôles sociaux ou encore des formes de relations sociales artificielles aux utilisateurs ».
Algorithme d’apprentissage automatique
L’apprentissage machine « permet de construire un modèle mathématique à partir de données, en incluant un grand nombre de variables qui ne sont pas connues à l’avance. Les paramètres sont configurés au fur et à mesure lors d’une phase d’apprentissage, qui utilise des jeux de données d’entraînement pour trouver des liens et les classifie ». Cela peut être utilisé pour « développer des calculs dans le but de concevoir, de former et de déployer des modèles d’algorithmes, principalement dans une optique de classification et/ou de prédiction de l’usage et du comportement des utilisateurs ».
Analytique augmentée
« Processus de collecte, d’organisation et d’analyse de grands ensembles de données pour découvrir des renseignements utiles et prévoir les événements pertinents ».
Boîte noire
Dans le contexte de l’IA, les boîtes noires font référence au fait que le fonctionnement interne de nombreux systèmes d’IA est invisible pour l’utilisateur, qui ne peut pas examiner la conception ou le codage du système pour comprendre comment certaines décisions ont été prises.
Bot informatique (bot)
« Logiciel automatisé qui imite le comportement humain sur les médias sociaux en publiant des informations, en affichant son approbation (like) et en s’adressant à des personnes réelles ».
Chatbot, robot conversationnel
Agents conversationnels « conçus pour interagir avec les humains en langage naturel, robot conversationnel vocal ou écrit… qui sont capables de dialoguer avec un utilisateur par téléphone via l’appui sur des touches ou la reconnaissance vocale ».
Hypertrucage
L’IA et l’apprentissage automatique permettent de créer des contenus vidéo qui imitent des personnes spécifiques. Ces techniques comprennent « le changement de visage, la reconfiguration faciale visant à modifier l’expression faciale d’un personnage ou personnalité dans une vidéo en lui faisant virtuellement répliquer la mimique réalisée en studio par un acteur ou une tierce personne, la reconfiguration labiale consistant à modifier la bouche d’une personne pour faire croire qu’elle a dit quelque chose (qu’elle n’a jamais dite), l’apprentissage de la voix pour faire dire virtuellement à une personne n’importe quel message ».
Intelligence artificielle (OQLF)
Domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci.
L’intelligence artificielle touche à de nombreux domaines, comme les sciences cognitives et les mathématiques, et à diverses applications, notamment en reconnaissance des formes, en résolution de problèmes, en robotique, dans les jeux vidéo ainsi que dans les systèmes experts.
Intelligence artificielle faible (OQLF)
Système d’intelligence artificielle conçu pour imiter une portion spécifique du fonctionnement de l’intelligence humaine, lui permettant de reproduire certains comportements humains afin d’accomplir une ou des tâches particulières.
L’intelligence artificielle faible se distingue de l’intelligence artificielle forte, cette dernière imitant l’ensemble du fonctionnement de l’intelligence humaine.
Intelligence artificielle forte (OQLF)
Système d’intelligence artificielle conçu pour imiter le fonctionnement de l’intelligence humaine dans son ensemble, et ayant la capacité de se questionner, d’analyser et de comprendre ses raisonnements.
L’intelligence artificielle forte se distingue de l’intelligence artificielle faible, cette dernière n’imitant qu’une portion spécifique du fonctionnement de l’intelligence humaine.
Intelligence artificielle générale (IAG)
Technologies d’IA « capables de traiter de l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ».
Intelligence artificielle générative
« Méthode qui permet à un système informatique d’apprendre à partir de données existantes et de générer de nouvelles données qui peuvent être utilisées pour des applications variées telles que la création d’images, de musique, de vidéos et de contenu textuel ».
Mégadonnées (big data en anglais) (OQLF)
Ensemble d’une très grande quantité de données, structurées ou non, se présentant sous différents formats et en provenance de sources multiples, qui sont collectées, stockées, traitées et analysées dans de courts délais, et qui sont impossibles à gérer avec des outils classiques de gestion de bases de données ou de gestion de l’information.
Lorsqu’il est question de mégadonnées, il y a souvent une référence au principe des « trois V » : volume (généralement massif), variété (sources et formats divers) et vitesse (rapidité de traitement). Certains spécialistes ajoutent également la véracité (données crédibles et réelles). Les mégadonnées proviennent notamment des publications dans les médias sociaux, des données publiques mises en ligne, des données transmises par les téléphones intelligents, des relevés de transactions électroniques, des signaux des systèmes de localisation GPS, etc. Elles peuvent être de nature autant personnelle que professionnelle ou institutionnelle.
Neurone artificiel (OQLF)
Unité de base d’un réseau de neurones artificiels dont le rôle est de convertir les signaux porteurs d’information qu’elle reçoit en un signal unique qu’elle transmet à d’autres unités du réseau ou qu’elle dirige vers la sortie.
À l’origine, les inventeurs du neurone artificiel se sont inspirés du neurone biologique en tentant de lui donner un modèle mathématique.
Réseau de neurones artificiels (OQLF)
Ensemble organisé de neurones artificiels interconnectés, créé dans le but de pouvoir effectuer des opérations complexes ou de résoudre des problèmes difficiles grâce à un mécanisme d’apprentissage lui permettant d’acquérir une forme d’intelligence.
À l’origine, les créateurs de réseaux de neurones artificiels se sont inspirés du fonctionnement du système nerveux, lequel est organisé en fonction des liaisons qui s’établissent entre des neurones biologiques.
Réseau de neurones profond (OQLF)
Réseau de neurones artificiels comportant de nombreuses couches cachées qui lui permettent, en multipliant les possibilités de traitement, d’augmenter ses capacités d’apprendre, d’améliorer son efficacité à effectuer certaines opérations complexes et d’accroître ses moyens de résoudre certains problèmes difficiles.
Robot (OQLF)
Machine programmable, généralement contrôlée par ordinateur, qui est conçue pour effectuer de manière autonome une ou plusieurs tâches dans des environnements spécifiques.
Les robots sont généralement des automates évolués qui possèdent l’équipement nécessaire pour s’adapter à leur environnement et interagir avec les objets qui les entourent. Ils effectuent souvent des tâches variées qui exigent des facultés propres à l’être humain à la fois sur les plans moteur et cérébral. Les progrès de l’intelligence artificielle vont accroître l’autonomie des robots en leur permettant de disposer de mécanismes perfectionnés d’apprentissage et de prise de décisions.
Système d’intelligence artificielle (OQLF)
Système conçu pour simuler le fonctionnement de l’intelligence humaine afin d’exécuter des fonctions relevant normalement de celle-ci.
Test de Turing (OQLF)
Test qui consiste à mettre en communication, à l’aveugle, un être humain et un ordinateur afin de vérifier s’ils sont capables d’atteindre les mêmes niveaux de performance. Si l’opérateur humain ne parvient pas à distinguer lequel de ses interlocuteurs est l’ordinateur, on considère que la machine a passé le test de Turing et est ainsi dotée d’intelligence artificielle. Le test de Turing a été imaginé par le mathématicien britannique Alan Turing.
Traitement automatique du langage humain (TALN). Traitement du langage naturel (TAL)
« Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain ». Les fonctions et applications relevant du TAL incluent la traduction automatique, les agents conversationnels, et le traitement de la parole.
Traitement automatique des langues (OQLF)
Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain. Les applications du traitement automatique des langues incluent, entre autres, la traduction automatique, la synthèse de la parole, la reconnaissance de la parole, la reconnaissance de l’écriture manuscrite et l’assistant virtuel.
Références
- Michelle Bartleman et Élisabeth Dubois, Les utilisations politiques de l’IA au Canada, Pol Comm Tech Lab, Université d’Ottawa, 2024.
- Office québécois de la langue française (OQLF), avec la collaboration de l’Institut des algorithmes d’apprentissage de Montréal, du Département d’informatique de l’Université de Sherbrooke et du Département de génie électrique et de génie informatique de l’Université Laval, Un vocabulaire bilingue de 85 concepts liés à l’intelligence artificielle, 26 février 2024.
Par André Vincent, Professeur en infographie retraité du Collège Ahuntsic, édimestre des Nouveaux Cahiers du socialisme
NOTES
- Chaire UNESCO pour la culture de la paix, Qu’est ce que l’intelligence artificielle ?. ↑
- Dictionnaire Larousse Encyclopédie, Intelligence artificielle. ↑
- Une partie de ce texte est tirée directement ou adaptée de l’article intitulé Intelligence artificielle de l’encyclopédie libre Wkipédia.
- Pour en savoir plus sur l’évolution de l’IA, on peut consulter les sources suivantes :
- Wikipédia, Histoire de l’intelligence artificielle.
- Encyclopædia Universalis, Évolution de l’intelligence artificielle.
- Jean-Luc Goudet, « Intelligence artificielle : les 7 innovations majeures selon Joël de Rosnay », Futura, 25 août 2017.
- Rémy Demichelis, « L’explosion de l’intelligence artificielle en quatre graphiques », Les Échos, 21 décembre 2018. ↑
- Wikipédia, Intelligence artificielle. ↑
- Actualité informatique, Quels sont les 3 types d’IA ?. ↑
- Bouliech, CC BY-SA 4.0, via Wikimedia Commons. ↑
- Wikipédia, Intelligence artificielle. Domaines d’application. ↑
- Agence France Presse, « Au cœur de la course à l’IA, les puces de Nvidia suscitent la convoitise des start-up », La Croix, 29 septembre 2023. ↑
- Thibault Mairesse, « L’intelligence artificielle : un gouffre financier », Études Tech, 18 octobre 2023. ↑
- Tom Dotan et Deepa Seetharaman, « Big tech struggles to turn AI hype into profits », Wall Street Journal, 9 octobre 2023. ↑
- Kate Saenko, « La recherche en IA est très énergivore, voici pourquoi », The conversation, 25 janvier 2021. ↑
- Jack Clark et Ray Perrault, Artificial Intelligence Index Report 2023, Stanford University. ↑
- Largest AI companies by market capitalization. ↑
- Données regroupées de diverses sources consultées le 29 février 2024, dont : Largest AI companies by market capitalization ; Largest Chinese companies by market capitalization – CompaniesMarketCap.com; Top 10 Chinese AI Companies, AI Magazine. ↑
- Parlement européen, Loi sur l’IA de l’UE : première règlementation de l’intelligence artificielle, 9 juin 2023, mise à jour le 19 décembre 2023. ↑
- Ibid. ↑
- Agence France-Presse, « L’intelligence artificielle encadrée par une nouvelle réglementation en Chine », Journal de Montréal, 18 août 2023. ↑
- LEXPRESS.fr avec AFP, « Contenus générés par l’IA : cette nouvelle réglementation instaurée en Chine », L’Express, 19 août 2023. ↑












