Nouveaux Cahiers du socialisme

Faire de la politique autrement, ici et maintenant...

Dépasser le capitalisme algorithmique par les communs ? Vers un communisme décroissant et technosobre

6 septembre, par Rédaction

À la suite de la crise financière de 2007-2008, le monde a basculé vers un nouveau stade du capitalisme basé sur l’extraction massive de données personnelles, l’hégémonie des plateformes et le développement accéléré de l’intelligence artificielle (IA)[1]. Ce « capitalisme algorithmique », aussi nommé « capitalisme de plateforme[2] » ou « capitalisme de surveillance[3] », contribue à l’amplification des inégalités sociales en termes de classe, de sexe et de race, à la consolidation du pouvoir des géants du numérique, à l’émergence de nouvelles formes de contrôle social et à l’exacerbation de la crise climatique[4]. La dynamique d’accumulation s’effectue toujours plus par la mainmise du capital sur les données et la production de machines algorithmiques, celles-ci augmentant la productivité au sein des entreprises, mais contribuant aussi à la transformation des modèles de subjectivité et des institutions. La « rationalité néolibérale », qui était jadis omniprésente au sein de la vie sociale et politique, est maintenant intégrée et dépassée par une « logique algorithmique » qui s’étend dans tous les secteurs de la société.

Face à cette reconfiguration inédite du capitalisme dans le premier quart du XXIe siècle, comment penser les voies de sortie et les stratégies de dépassement de ce système mortifère ? Trop souvent, la gauche se trouve démunie face aux enjeux numériques, et encore plus avec l’arrivée de l’IA qui semble échapper aux grilles d’analyse du marxisme classique ou aux analyses d’inspiration sociale-démocrate. L’encadrement de ces technologies par des lois, les stratégies de nationalisation et d’autres réformes étatiques semblent impuissantes, ou du moins insuffisantes, pour proposer une alternative globale et cohérente sur le plan sociotechnologique. Il existe des rapports d’organismes comme le Conseil d’innovation du Québec qui proposent d’encadrer l’industrie technologique par des règlements peu contraignants, qui font la promotion de la rhétorique de l’IA responsable et d’un programme « IA pour le Québec » lequel vise à positionner l’État québécois en « leader et modèle » dans le domaine[5]. Cette vision du « capitalisme algorithmique régulé par l’État » est présentement hégémonique au Québec et ailleurs dans le monde. Pendant ce temps, un parti de gauche comme Québec solidaire, au printemps 2024, n’avait presque aucun élément dans son programme concernant le numérique, les plateformes et l’IA.

Malgré ces insuffisances de la gauche sur le plan programmatique, de nombreuses luttes populaires et alternatives socioéconomiques esquissent déjà la voie vers la construction d’une société postcapitaliste sur le plan technologique. On n’a qu’à penser à l’existence de logiciels libres, à l’encyclopédie Wikipédia ou encore à certaines plateformes coopératives comme Eva qui font concurrence à Uber en matière de service de transport urbain[6]. Toutefois, la plupart des initiatives collectives visant à bâtir un autre monde numérique et à orienter différemment le progrès technologique restent dispersées et isolées. Elles demeurent de belles « utopies réelles[7] » sans grande portée face aux grandes entreprises privées et aux jeunes pousses qui récoltent les millions de dollars de financement de l’État, à l’instar de la compagnie montréalaise Element AI, « fleuron québécois » dans le secteur de l’IA, qui fut vendue au géant américain ServiceNow[8]. Bref, il nous manque un projet de société plus vaste et radical prenant au sérieux la question de l’infrastructure technologique et du rôle central du capital algorithmique.

Le retour des communs

Nous faisons l’hypothèse que le point de départ pour bâtir une société postcapitaliste repose sur la protection et la multiplication des « communs ». Les communs sont un modèle de gestion collective de ressources partagées, permettant de (re)produire, d’utiliser et de cogérer des biens au-delà de la propriété privée et de la gestion étatique centralisée. Nous pouvons penser par exemple à des forêts de proximité gérées par les habitants, des bâtiments industriels récupérés par la communauté, des monnaies locales complémentaires, etc. Comme le soulignent Pierre Dardot et Christian Laval : « La revendication du commun a d’abord été portée à l’existence par les luttes sociales et culturelles contre l’ordre capitaliste et l’État entrepreneurial. Terme central de l’alternative au néolibéralisme, le “commun” est devenu le principe effectif des combats et des mouvements qui, depuis deux décennies, ont résisté à la dynamique du capital et ont donné lieu à des formes d’action et de discours originales[9] ».

Les communs ont l’avantage de lier ces diverses formes de résistances, d’innovations sociales et de projets collectifs ancrés dans l’économie sociale et solidaire, le milieu associatif et communautaire, les luttes territoriales axées sur les « zones à défendre », de même que des expérimentations dans le monde numérique. L’idée centrale consiste à combattre l’« idéologie propriétaire[10] » en créant progressivement « une société des communs » qui serait plus libre, juste et écologique.

Or, la littérature universitaire sur les communs dans la sphère technologique se concentre habituellement sur les « communs numériques » comme les logiciels libres, Wikipédia ou les licences Creative Commons[11], laissant de côté plusieurs autres pans de l’infrastructure technologique qui restent largement sous l’emprise du capital algorithmique. Que faire des données, des algorithmes et de l’IA qui sont principalement stockés, analysés, produits et monétisés par les GAFAM ? Il est impératif de répondre à cette lacune en montrant comment les communs pourraient « communaliser » différentes sphères de l’infrastructure technologique. Cela constitue le cœur de notre argument, qui consiste à montrer que le principe des communs, aussi nommé « logique communaliste », peut servir de boussole pour créer une infrastructure technologique postcapitaliste, viable et démocratique.

L’impact écologique des algorithmes

Néanmoins, même une communalisation complète de l’infrastructure technologique nous laisse encore face au problème majeur de l’impact environnemental des machines algorithmiques, qui peuvent se multiplier et croitre à l’infini. En effet, l’IA ne représente pas seulement un ensemble d’outils, d’algorithmes et de larges modèles de langage (LLM), mais une « industrie extractive » prenant la forme d’une infrastructure à l’échelle planétaire. Comme le souligne Kate Crawford, l’IA « est à la fois incarnée et matérielle, faite de ressources naturelles, de carburant, de main-d’œuvre humaine, d’infrastructures, de logistique, d’histoires et de classifications[12] ».

Il faut ainsi tenir compte de l’appétit vorace de l’infrastructure algorithmique pour des ressources de toutes sortes, notamment les centres de données à forte intensité de calcul qui ont un coût énergétique élevé, une empreinte carbone massive et un besoin énorme de quantité d’eau à des fins de refroidissement. « Pour alimenter leurs centres, de nombreuses entreprises technologiques puisent dans les réserves d’eau publiques et les aquifères, ce qui ajoute au stress hydrique régional – tout en étant construits dans certaines des régions du monde les plus sujettes à la sécheresse[13] ». À cela s’ajoute l’extraction grandissante de minéraux pour produire les appareils informatiques, laquelle alimente les dynamiques d’accumulation par dépossession du capitalisme racial dans les pays du Sud global[14]. Bien que plusieurs entreprises prétendent vouloir contribuer à la transition écologique par une IA alimentée aux énergies renouvelables ou par diverses solutions technologiques pour résoudre la crise climatique, il s’avère que l’impact exponentiel de cette industrie dépasse largement les gains d’efficacité relatifs à des innovations particulières.

Pour résoudre cette contradiction, nous soutiendrons la thèse selon laquelle une « société des communs » écologiquement soutenable doit nécessairement s’accompagner d’une perspective de « descente énergétique », de « technosobriété » et de « décroissance »[15]. Une telle synthèse se trouve esquissée notamment chez le philosophe japonais Kohei Saito, qui propose de bâtir un « communisme décroissant » appuyé sur la multiplication des communs, les technologies ouvertes, l’autonomie locale et la décélération de l’économie[16]. Nous critiquerons enfin les approches techno-optimistes comme l’« écomodernisme[17] », l’« accélérationnisme[18] » et le « communisme pleinement automatisé[19] », montrant que celles-ci sont irréalistes sur le plan écologique et non souhaitables d’un point de vue démocratique. Ainsi, notre objectif consiste à articuler l’approche des communs et de la décroissance afin de jeter les bases d’un postcapitalisme technosobre, dans la lignée d’un scénario de transition socioécologique frugal[20].

Vers une infrastructure technologique communalisée

Comment développer une infrastructure technologique complètement libérée du joug du capitalisme ? Rappelons d’abord que le monde numérique n’est pas une sphère purement immatérielle (parfois nommée « cyberespace »), mais un système technique complexe composé de plusieurs strates ou couches superposées. Il y a ainsi « à la base, une couche physique, qui comprend des câbles de cuivre ou de fibre optique, des ondes circulant grâce à des satellites et des tours de communication, mais aussi des ordinateurs qui peuvent jouer le rôle de serveurs (qui hébergent du contenu) ou de « clients » (qui accèdent aux serveurs). Sur cette infrastructure matérielle, on trouve ensuite une couche logicielle : du code informatique, soutenu par des protocoles standardisés et ouverts, assure le traitement et la circulation de l’information. Finalement, au sommet ou en surface, on trouve les contenus de toutes sortes qui circulent grâce à ces applications : messages, courriels, pages contenant textes, sons et images[21] ».

À ces différentes couches, il faut ajouter trois autres dimensions liées plus spécifiquement à la dynamique du capital algorithmique : 1) l’extraction et le stockage de données liées aux contenus produits par les utilisatrices et utilisateurs et leurs comportements en ligne ; 2) les algorithmes d’apprentissage automatique et d’apprentissage profond permettant d’analyser les données et d’assurer le fonctionnement global de l’IA, que celle-ci prenne la forme d’applications comme ChatGPT, Google Maps, DeepL, les fils d’actualité sur les médias sociaux, etc. ; 3) les plateformes comme Meta, Amazon, Uber ou Airbnb qui sont des interfaces « entreprise-marché » où s’opèrent la collecte et la monétisation des données, l’exploitation du travail digital (digital labour), ainsi que la vente de services auprès d’individus ou d’organisations de toutes sortes[22].

En résumé, pour construire une « infrastructure technique complètement communalisée », il faut explorer la manière dont les communs peuvent se déployer à différentes échelles : a) infrastructure matérielle (incluant les réseaux de télécommunications, les centres de données) ; b) couche logicielle (codes, systèmes d’exploitation, applications) ; c) données (cadre juridique et gouvernance) ; d) algorithmes (production et contrôle de l’IA) ; e) plateformes (modèle d’affaires des entreprises technologiques). Regardons brièvement comment le paradigme des communs peut déjà s’appliquer à ces différentes strates de l’infrastructure.

A – Des réseaux de télécommunications en « partenariat public-commun »

Lorsque vient le temps de parler des réseaux de télécommunications, le principal réflexe de la gauche consiste à penser en termes de nationalisation des infrastructures numériques. Cette vision étatiste de la socialisation des moyens de production se trouve notamment dans le programme de Québec solidaire, qui proposait dans sa plateforme électorale de 2022 d’explorer la création de « Réseau-Québec, une société d’État responsable d’offrir une infrastructure publique pour Internet[23] ». Cela représente une piste intéressante, mais un nombre croissant de recherches suggèrent que la gestion démocratique des services publics serait mieux assurée par la (re)municipalisation de ceux-ci ou par leur communalisation (par des coopératives de transport collectif par exemple) ou encore par une combinaison des deux.

Par exemple, le Transnational Institute a publié un rapport montrant qu’entre 2000 et 2019, plus de 2400 villes dans 58 pays dans le monde ont repris le contrôle des services publics dans une foule de secteurs : eau, énergie, gestion des déchets, logement, transport, santé, télécommunications, etc.[24] Aux États-Unis, plus de 141 nouveaux services de communication ont été établis par les municipalités, que ce soit par des entreprises municipales (entreprises publiques locales) ou encore par des partenariats avec des organismes à but non lucratif ou avec des coopératives. Au Québec, la Coopérative de télécommunications Antoine-Labelle (CTAL) assure des services d’Internet haute vitesse, de télévision et de téléphonie, en collaboration avec la Municipalité régionale de comté Antoine-Labelle qui possède l’infrastructure de fibre optique.

Cet exemple de « partenariats public-commun », lesquels constituent une alternative économique aux partenariats public-privé qui se sont généralisés sous le capitalisme néolibéral, met en évidence comment un bien public peut être cogéré avec une organisation collective chargée de répondre aux besoins de la communauté. Ainsi, il serait possible de « créer des instances régionales de gouvernance des infrastructures de télécommunication (datacenters, antennes 5G, fibre, câbles, sous-marins, etc.). […] Ces instances seraient composées des gestionnaires privés, des collectivités territoriales, des représentants de l’État, des usagers et des associations environnementales. Ces deux derniers collèges auraient un droit de véto pour garantir la gestion démocratique et écologique des infrastructures du numérique à l’échelle locale[25] ».

B – Généraliser les logiciels libres et les communs numériques

Bien qu’une partie croissante d’Internet soit maintenant contrôlée par des intérêts privés et quelques oligopoles, il faut aussi noter que plus de 90 % des serveurs Web, des applications mobiles et des superordinateurs fonctionnent à partir de communs numériques comme les logiciels libres ou open source. Rappelons ici que l’émergence des logiciels libres remonte aux années 1980 pour contrer la généralisation des logiciels propriétaires, selon un modèle popularisé par la création de la Free Software Foundation en 1985 qui établit les quatre principes de l’informatique libre : 1) liberté d’exécuter le programme pour tous les usages ; 2) liberté d’étudier le fonctionnement du programme et de l’adapter à ses besoins ; 3) liberté de redistribuer des copies du programme ; 4) liberté d’améliorer le programme et de distribuer ces améliorations au public, pour en faire profiter toute la communauté. Linux, Libre-Office, Firefox, WordPress, VLC media player sont différents exemples de logiciels libres, lesquels sont promus par des organismes comme Framasoft en France ou encore FACIL au Québec. Nous pouvons ajouter à cela la présence de licences libres comme le Copyleft ou les Creative Commons qui représentent des solutions alternatives à la propriété intellectuelle et aux droits d’auteur (copyright) qui freinent l’innovation ouverte.

Les logiciels libres font face à une limite principale : l’hégémonie des logiciels propriétaires dans les entreprises, l’administration publique et les ménages. Il faut aussi ajouter le manque de ressources consacrées à ces voies non capitalistes. Ainsi, les logiciels libres sont souvent oubliés, négligés ou écartés lorsque vient le temps d’utiliser ou de construire des outils numériques, notamment de la part des pouvoirs publics. C’est pourquoi des organismes comme La société des communs en France propose une série de réformes institutionnelles visant à déployer ces communs numériques : structuration d’un écosystème européen du logiciel libre, l’innovation ouverte et l’interopérabilité; création d’une fondation consacrée aux communs numériques; inciter, voire obliger, les administrations publiques à recourir aux logiciels libres lorsque cette option existe[26]. Un exemple de cette transition numérique basée sur les communs est la ville de Barcelone qui a mis en place un plan de migration vers des logiciels libres en 2018, en consacrant 70 % du budget logiciel à ces communs numériques et en embauchant 65  développeurs, hommes et femmes, pour assurer cette transition ainsi que la formation au sein de la fonction publique[27]. Barcelone a également créé la plateforme numérique de participation citoyenne Decidim (logiciel libre) et a rejoint la campagne européenne Public Money, Public Code (Argent public ? Code public) organisée par la Free Software Foundation Europe.

C – Les communs de données

Alors que la vaste majorité des données produites en ligne et sur les plateformes sont accaparées, possédées, monétisées et échangées par des entreprises privées, il importe de concevoir un modèle alternatif pour assurer leur contrôle et leur gestion. Face au pouvoir oligopolistique des GAFAM, certains auteurs préconisent de miser sur la propriété privée des données personnelles que l’individu pourrait librement consentir à vendre ou à partager (via des data trusts privés ou fiducies de données privées); mais cette solution néolibérale ne fait qu’étendre la logique de privatisation et la marchandisation en la confiant à des individus-entrepreneurs de soi. Une autre alternative se trouve du côté de la propriété publique des données, mais celle-ci reproduit les problèmes liés à la gestion étatique et centralisée de l’information, souvent synonyme de concentration du pouvoir et de surveillance des individus par l’État.

Heureusement, il existe une troisième voie, soit les communs de données qui « impliquent des données partagées à titre de ressource commune et dont la gestion est assurée par une communauté d’utilisateurs[28] ». Les communs de données peuvent prendre diverses formes juridiques. Par exemple, les coopératives de données permettent une propriété collective et une gestion démocratique des données, à l’instar de MIDATA (en Suisse), Driver’s Seat (coopérative de mobilité aux États-Unis) ou Salus Coop (coopérative de santé à Barcelone). Au Québec, des chercheurs proposent d’utiliser le véhicule juridique des fiducies d’utilité sociale (FUS), utilisé notamment pour la protection du patrimoine bâti ou pour des espaces naturels face aux dynamiques de marchandisation. La particularité de la FUS est qu’elle vise à dépasser la logique propriétaire en confiant la gestion d’un bien d’intérêt général à un collectif chargé d’assurer sa pérennité. « La fiducie offre ainsi une alternative à la propriété. Elle concilie d’une part le besoin de partager et de mutualiser des données et d’autre part le besoin de contrôler l’utilisation et l’accès à ces données selon une finalité déterminée[29] ».

D – Des modèles algorithmiques à code ouvert

Les enjeux touchant les logiciels libres et le code source ouvert (open source) renvoient également à la fabrication des algorithmes qui sont au cœur des technologies d’intelligence artificielle. Cela représente un enjeu stratégique de premier plan, considérant le fait que les plus grands joueurs dans la course à l’IA sont présentement les GAFAM et leurs compagnies associées. Pour donner un exemple : la firme OpenAI qui a développé ChatGPT a été créée comme une entreprise à but non lucratif en 2015, avant de développer un volet commercial à but lucratif et de former un partenariat stratégique de plusieurs milliards de dollars avec Microsoft à partir de 2019. ChatGPT et son modèle algorithmique GPT-4 sont développés de façon complètement opaque, dans le plus grand secret industriel, et s’appuient sur l’exploitation du travail du clic et sur une course à la montre pour développer le modèle le plus puissant en minimisant les enjeux de sécurité[30].

Les principaux concurrents d’OpenAI sont présentement Google, Amazon et Meta, cette dernière entreprise ayant lancé le modèle algorithmique baptisé LLaMA qui est développé en mode open source. Cela signifie que cette IA peut être utilisée, modifiée et adaptée selon les besoins des femmes et des hommes utilisateurs et développeurs. Cela représente-t-il une petite révolution au sein de l’industrie de l’IA ou bien d’une ruse du capital algorithmique ?

En fait, plusieurs entreprises technologiques capitalistes contribuent depuis un moment au développement de codes sources ouverts et de logiciels libres, à l’instar d’IBM, car cela s’avère rentable en raison des moindres coûts associés à l’usage de ces codes qui n’ont pas besoin d’être achetés, et de l’expertise gratuite de contributeurs et contributrices qui peuvent corriger et améliorer ces programmes et applications[31]. Plusieurs ont d’ailleurs remarqué cette instrumentalisation des communs dans le monde numérique[32], mais il n’en demeure pas moins que cela démontre la viabilité économique du modèle open source et libre qui peut aussi être utilisé dans une perspective non capitaliste.

Il s’avère même que les modèles algorithmiques open source présentent un niveau de performance presque équivalent aux modèles développés par le secteur privé, et pourraient même dépasser les algorithmes des grandes entreprises en utilisant moins de ressources[33]. Des chercheurs soutiennent d’ailleurs l’importance de construire l’IA selon les principes de l’open-source afin de favoriser l’accessibilité, la collaboration, la responsabilité et l’interopérabilité[34]. L’interopérabilité désigne ici la capacité d’un système à pouvoir fonctionner avec d’autres systèmes sans restriction d’accès ou de mise en œuvre, sans les contraintes de « jardins clos » qu’on retrouve dans la logique propriétaire. Tout cela ne permet pas de démontrer la supériorité de l’IA open source sur l’IA propriétaire ou capitaliste, mais cela montre la possibilité de bâtir des modèles algorithmiques selon une logique contributive, ouverte et postcapitaliste.

E – Les plateformes coopératives

Enfin, l’exploitation des données et le développement de l’IA se font principalement à travers le modèle d’affaires des « plateformes », lesquelles sont des interfaces multifaces capables d’extraire, d’analyser et de monétiser les données en entrainant des modèles algorithmiques toujours plus puissants[35]. Avec l’émergence de « l’économie collaborative » (aussi nommée sharing economy), des plateformes comme Uber, Airbnb, TaskRabbit, Doordash, Tinder, Spotify ou Netflix ont montré leur capacité à restructurer plusieurs secteurs de l’économie liés aux transports, à l’hébergement, aux petits boulots, aux rencontres amoureuses, à la musique et au cinéma. La puissance des plateformes capitalistes réside avant tout dans l’attractivité de leur design et leur facilité d’utilisation, dans l’effet de réseau lié à la participation de millions d’utilisateurs et d’utilisatrices à travers le monde, ainsi que dans la vitesse à laquelle elles se sont diffusées dans la société, avec un marketing agressif et des campagnes de lobbying visant à court-circuiter ou à remodeler diverses législations. Le terme « ubérisation » s’est d’ailleurs répandu pour décrire ce processus de marchandisation accéléré par le biais des plateformes capitalistes et algorithmes[36].

Cela dit, rien n’empêche les plateformes d’adopter une structure non capitaliste, de fonctionner selon le modèle des coopératives ou des entreprises privées à but non lucratif. Par exemple, la compagnie Eva créée au Québec est une coopérative qui fait concurrence à Uber, FairAirbnb, née à Amsterdam, vise à contrecarrer Airbnb par une plateforme numérique d’hébergement favorisant la redistribution de ses profits aux municipalités pour financer le logement social, Resonate cherche à mieux rémunérer les artistes que Spotify, et ainsi de suite. Le terme coopérativisme de plateforme (platform cooperativism) fut utilisé pour la première fois par Trebor Scholz pour désigner un modèle postcapitaliste concurrent au capitalisme de plateforme qui sévit dans différents secteurs de l’économie[37]. Ce mouvement cherche ainsi à élargir le spectre du mouvement coopératif dans l’univers numérique, mais il peut aussi s’élargir à toute forme d’entreprise issue de l’économie sociale et solidaire visant à proposer une alternative postcapitaliste sur le plan technologique en matière d’applications, de réseaux sociaux, de plateformes d’échanges et de services, etc. La plateforme En commun développée par Projet collectif au Québec, lancée en 2023 pour accélérer la transition socioécologique et la coconstruction de connaissances par diverses pratiques collaboratives et communautés de pratiques, représente un exemple parmi d’autres de ce mouvement.

Tous ces exemples démontrent qu’une infrastructure technologique postcapitaliste est possible à partir d’une approche basée sur les communs. L’enjeu principal d’une telle proposition demeure l’articulation de ces différents niveaux et initiatives, de manière à former un projet sociotechnique global qui soit viable sur le plan économique et politique. Certains auteurs soutiennent notamment que le municipalisme pourrait servir de levier pour construire une « souveraineté technologique » basée sur les communs[38]. Sans se limiter à l’échelle locale, il s’agit de recréer un mouvement ascendant (bottom-up) formé par l’alliance d’initiatives postcapitalistes, de mouvements sociaux et de « mairies rebelles » afin de créer un nouveau système socioéconomique « par le bas[39] ».

Les limites de la croissance technologique et l’impératif de sobriété

Cela dit, un enjeu crucial reste l’empreinte écologique majeure de l’infrastructure technologique nécessaire au déploiement des outils numériques et algorithmiques, y compris dans une perspective postcapitaliste. Même en admettant que ces technologies soient développées selon une logique ouverte (open source), contributive, horizontale et débarrassée de l’impératif de profit, il n’en demeure pas moins que le développement continu et exponentiel de la numérisation et de l’IA continuera de peser sur les écosystèmes et d’augmenter la production de gaz à effet de serre (GES) qui amplifient la crise climatique.

C’est pourquoi nous voulons ici présenter une critique rapide de certains courants contemporains se réclamant du marxisme et qui proposent de poursuivre le développement technologique tous azimuts pour construire une économie postcapitaliste. Nous pouvons penser à l’écomodernisme de Matt Huber hostile à la décroissance[40], l’« accélérationnisme de gauche » qui considère que la propulsion du développement technique et l’exacerbation des contradictions du capitalisme contribueront au dépassement de ce système[41], ou encore au « communisme pleinement automatisé » (Fully automated luxury communism) qui représente l’utopie ultime d’une société libérée du travail par l’entremise des robots, le revenu de base, l’extraction de minéraux sur les astéroïdes et la planification algorithmique de l’économie[42]. Toutes ces variantes du marxisme productiviste estiment que le développement technologique est somme toute positif, seule la propriété privée des moyens de production ou le contrôle capitaliste pose problème. Comme l’affirma jadis Lénine en boutade : « Le communisme, c’est le gouvernement des Soviets plus l’électrification de tout le pays ».

Or, il s’avère que cette vision basée sur une vision linéaire, évolutionniste, eurocentrique et prométhéenne du progrès a été remise en question par Marx lui-même à la fin de sa vie[43]. Contrairement à la vision très répandue du marxisme orthodoxe selon laquelle les sociétés devraient passer par les mêmes stades de développement pour parvenir au socialisme puis au communisme, il s’avère que Marx aurait remis en question ce schéma simpliste de l’histoire au profit d’une vision où des institutions comme les communs et les communes rurales (le mir en Russie, par exemple) permettraient le passage vers le communisme sans passer par l’étape intermédiaire du capitalisme industriel[44].

Qui plus est, l’argument le plus fort à l’endroit d’une telle conception productiviste de l’écosocialisme réside dans les limites planétaires objectives liées à une croissance continue, que celle-ci soit déployée selon une logique capitaliste ou socialiste, car le développement massif de nouvelles technologies implique forcément une consommation immense de ressources naturelles et énergétiques[45]. Face à ce constat, il s’avère essentiel de proposer un modèle postcapitaliste alternatif, axé sur la « descente énergétique[46] » et la « technosobriété », c’est-à-dire l’idée d’une modération dans la production et l’usage des technologies numériques et algorithmiques au sein de la vie sociale et économique[47].

Vers un communisme décroissant

À quoi ressemblerait une telle société postcapitaliste, débarrassée de l’impératif de croissance et où les nouvelles technologies joueraient un rôle restreint dans la vie sociale ? Selon Kohei Saito, il s’agit de construire un « communisme décroissant » appuyé sur la multiplication des communs, les technologies ouvertes, l’autonomie locale et la décélération de l’économie[48]. Le terme « communisme » pourrait être traduit par le terme « commonisme », car il ne s’agit pas d’imiter le socialisme d’État des anciens régimes soviétiques, mais de construire une société axée sur les communs, l’entraide et la coopération, hors de la logique étatique bureaucratique et centralisée[49].

S’appuyant sur les écrits du philosophe français André Gorz, Saito considère qu’il est essentiel d’opérer une distinction entre les « technologies ouvertes » et les « technologies verrouillées » pour échapper aux problèmes du productivisme. « Les technologies ouvertes sont celles qui impliquent un échange avec d’autres, qui sont liées à la communication et à l’industrie coopérative. En revanche, les technologies verrouillées sont celles qui divisent les gens, qui transforment les utilisateurs en esclaves et qui monopolisent la fourniture de produits et de services[50] ». Dans cette perspective, il s’agit de développer des infrastructures de télécommunications, des centres de données, des logiciels, des modèles de gestion de données, des modèles algorithmiques et des plateformes basés sur des « technologiques ouvertes » comme les communs.

Ainsi que nous l’avons montré précédemment, cela s’avère chose possible, bien qu’il soit nécessaire d’articuler ces diverses strates technologiques au sein d’un projet social global et cohérent. Le problème réside plutôt dans la place que doit prendre l’infrastructure numérique et le rôle de l’IA au sein de la vie sociale et économique. Doit-on miser sur une planification globale de l’économie par les algorithmes, proscrire leur usage, ou bien opter pour un « juste milieu » où ces technologies pourraient servir à optimiser certaines prises de décision tout en laissant une large place à des échanges en dehors de cet appareillage technologique ?

C’est ici que la « vraie réflexion » concernant la planification démocratique de l’économie s’amorce : de quoi avons-nous réellement besoin[51] ? Nous aboutissons ainsi sur le besoin de délimiter collectivement les limites d’une économie technosobre, c’est-à-dire d’une société dans laquelle les technologies numériques et algorithmiques ne jouent pas un rôle excessif dans la production, la distribution et la consommation de biens et services essentiels à l’épanouissement humain. Il importe donc d’éviter l’approche techno-utopique et non soutenable des courants accélérationnistes et productivistes, mais également les postures anti-technologiques que nous retrouvons parfois dans certains courants anti-industriels, certaines versions de la décroissance ou encore l’anarchoprimitivisme.

Que signifient les termes « excessif », « nécessaire », « utile » ou « superflu » dans un hypothétique modèle économique technosobre ? Selon nous, il n’existe pas de définition purement objective ou impartiale de ces termes, car la détermination des besoins et des moyens de les satisfaire doit inévitablement passer par un débat démocratique. Comme le notait déjà Nancy Fraser, il existe une « lutte pour l’interprétation des besoins » qui se déroule nécessairement dans l’arène politique[52]. L’important ici est de bâtir des institutions dans lesquelles ce genre de débat pourra avoir lieu afin de déterminer ce qui mérite d’être produit en priorité pour répondre aux besoins sociaux urgents, ce qui doit être laissé à l’initiative individuelle ou encore à des modalités de production locale de façon flexible[53].

Quatre scénarios de transition

En guise de conclusion, nous suggérons de comparer quatre scénarios stratégiques élaborés par l’Agence de la transition écologique de la France : S1 Génération frugale, S2 Coopérations territoriales, S3 Technologies vertes et S4 Pari réparateur[54] (figure 1).

Alors que les scénarios S3 Technologies vertes et S4 Pari réparateur correspondent à la trajectoire actuelle du capitalisme vert et de la transition énergétique technocentrée, les scénarios S1 Génération frugale et S2 Coopérations territoriales se rapprochent davantage du communisme décroissant, ou d’un écosocialisme municipal démocratisé. Nous ne pouvons pas ici décrire en détail chaque scénario, mais il nous semble essentiel de viser les scénarios S1 et S2 en misant sur une valorisation des technologies réparables, ouvertes et émancipatrices (low-tech), un mode de vie moins énergivore et un nouveau mode de production postcapitaliste débarrassé de l’impératif de croissance.

Figure 1 – Quatre scénarios de transition

word-image-37821-1.png?resize=696%2C333&ssl=1

Source : ADEME, « Les scénarios », Agence de la transition écologique de France, 2021.

Dans ces deux scénarios, les communs joueraient un rôle essentiel dans la démocratisation des infrastructures et des outils technologiques, que ce soit en matière de systèmes de télécommunications, de logiciels, de données, d’algorithmes et de plateformes. Le communisme décroissant technosobre nous invite ainsi à penser la communalisation des moyens de production technologiques, sans nous enfermer dans une vision idéaliste où le seul changement de propriété de ces technologies suffirait à nous émanciper.

Au bout du compte, la question la plus complexe à répondre est : quelle place occuperont le monde numérique et l’IA dans une société future postcapitaliste, cette société devant être à la fois juste, démocratique et écologiquement soutenable ? Ainsi, l’infrastructure technologique du postcapitalisme ne reposera pas sur une demande infinie de ressources et d’énergie, mais sur la délibération démocratique et sur le travail humain ancré au sein de communautés locales, avec l’aide d’outils algorithmiques au besoin. Une fois que nous aurons déterminé le profil souhaité pour la société future à construire, il nous restera encore à établir les meilleurs moyens et stratégies pour y parvenir, et en se préparant aux luttes sociales et politiques que cela implique. Autrement dit, si nous parvenons à rassembler plusieurs groupes anticapitalistes autour du projet de communisme décroissant technosobre, il faudra encore se poser la question stratégique suivante : que faire ?

Par Jonathan Durand Folco, professeur à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul


  1. Nick Dyer-Witheford, Atle Mikkola Kjøsen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Pluto Press, 2019.
  2. Nick Srnicek, Capitalisme de plateforme. L’hégémonie de l’économie numérique, Montréal, Lux, 2018.
  3. Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  4. Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.
  5. Conseil de l’innovation du Québec, Prêt pour l’IA. Répondre au défi du développement et du déploiement responsables de l’IA au Québec, rapport, janvier 2024.
  6. Charlotte Mercille, « Le modèle coopératif au service de l’économie de plateforme », Le Devoir, 27 mars 2021.
  7. Erik Olin Wright, Utopies réelles, Paris, La Découverte, 2017.
  8. Ulysse Bergeron, « La vente d’Element AI à une firme américaine suscite la grogne », Le Devoir, 1er décembre 2020.
  9. Pierre Dardot et Christian Laval, Commun. Essai sur la révolution au XXIe siècle, Paris, La Découverte, 2014, p. 15.
  10. Benjamin Coriat (dir.), Le retour des communs. La crise de l’idéologie propriétaire, Paris, Les Liens qui libèrent, 2015.
  11. Yochai Benkler, The Wealth of Networks. How Social Production Transforms Markets and Freedom, New Haven, Yale University Press, 2006 ; Christian Fuchs, « The ethics of the digital commons », Journal of Media Ethics, vol. 35, n° 2, 2020, p. 112-126.
  12. Jane Crawford, Le contre-atlas de l’intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA, Paris, Zulma, 2022.
  13. « The Climate Cost of Big Tech », AI Now Institute, 11 avril 2023.
  14. Durand Folco et Martineau, 2023, op. cit.
  15. Yves-Marie Abraham, Guérir du mal de l’infini. Produire moins, partager plus, décider ensemble, Montréal, Écosociété, 2019.
  16. Kohei Saito, « Marx au soleil levant : le succès d’un communisme décroissant », Terrestres, 17 mars 2023 ; Kohei Saito, Slow Down. The Degrowth Manifesto, New York, Astra House, 2024.
  17. Matt Huber, « The problem with degrowth », Jacobin Magazine, 16 juillet 2023.
  18. Alex Williams et Nick Srnicek, « # ACCELERATE MANIFESTO for an Accelerationist Politics », Rhuthmos, 2013.
  19. Aaron Bastani, Fully Automated Luxury Communism, New York, Verso, 2019.
  20. ADEME, « Les scénarios », Agence de la transition écologique de France, 2021.
  21. Philippe de Grosbois, Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique, Montréal, Écosociété, 2018, p. 23.
  22. Antonio Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019.
  23. Québec solidaire, Changer d’ère, Plateforme électorale de 2022, p. 25.
  24. Satoko Kishimoto, Lavinia Steinfort et Olivier Petitjean, The Future is Public. Towards Democratic Ownership of Public Services, Transnational Institute, 2020.
  25. Société des communs, Regarder notre souveraineté technologique par les communs numériques, Livret 02, 2023, p. 15.
  26. Ibid.
  27. Luis López, « Barcelone envisage de changer Windows pour Linux et les logiciels libres », Linux/UnixAddicts, 2018.
  28. Margaret Hagan, Jameson Dempsey et Jorge Gabriel Jiménez, « A Data Commons for Law », Medium, 2019.
  29. Jessica Leblanc, Gouvernance des données. La fiducie d’utilité sociale, un outil à fort potentiel, Territoires innovants en économie sociale et solidaire (TIESS), 2021, p. 31.
  30. Gary Grossman, « OpenAI drama a reflection of AI’s pivotal moment », VentureBeat, 22 novembre 2023.
  31. Benkler, 2006, op. cit.
  32. Dardot et Laval, 2014, op. cit.
  33. Ben Dickson, « How open-source LLMs are challenging OpenAI, Google, and Microsoft », TechTalks, 2023.
  34. Yash Raj Shrestha, Georg von Krogh et Stefan Feuerriegel, « Building open-source AI », Nature Computational Science, vol. 3, n° 11, 2023, p. 908-911.
  35. Casilli, 2019, op. cit.
  36. Denis Jacquet et Grégoire Leclercq, Uberisation. Un ennemi qui vous veut du bien ?, Paris, Dunod, 2016.
  37. Trebor Scholz, Platform Cooperativism. Challenging the Corporate Sharing Economy, New York, Fondation Rosa Luxemburg, 2016, p. 436.
  38. Evgeny Morozov et Francesca Bria, Rethinking the Smart City. Democratizing Urban Technology, vol. 2, Fondation Rosa Luxemburg, 2018.
  39. Jonathan Durand Folco, À nous la ville! Traité de municipalisme, Montréal, Écosociété, 2017.
  40. Huber, 2023, op. cit.
  41. Williams et Srnicek, 2013, op. cit.
  42. Bastani, 2019, op. cit.
  43. Saito, Marx in the Anthropocene, 2023, op. cit.
  44. Dardot et Laval, 2012, op. cit.
  45. Abraham, 2019, op. cit.
  46. Rob Hopkins, Manuel de transition. De la dépendance au pétrole à la résilience locale, Montréal, Écosociété, 2010.
  47. Martineau et Durand Folco, 2023, op. cit.
  48. Saito, 2024, op. cit.
  49. Saito, « Marx au soleil levant…», 2023, op. cit.
  50. Saito, 2024, op. cit., p. 175.
  51. Jonathan Durand Folco, Ambre Fourrier et Simon Tremblay-Pepin, « Redéfinir démocratiquement les besoins pour planifier l’économie », Politique et Sociétés, vol. 43, n° 2, 2024.
  52. Nancy Fraser, « La lutte pour l’interprétation des besoins. Ébauche d’une théorie critique féministe et socialiste de la culture politique du capitalisme tardif », dans Le féminisme en mouvements. Des années 1960 à l’ère néolibérale, Paris, La Découverte, 2012, p. 75-112.
  53. Martineau et Durand Folco, 2023, op. cit., chap. 19.
  54. ADEME, 2021, op. cit. 

 

Les temporalités sociales et l’expérience du temps à l’ère du capitalisme algorithmique

5 septembre, par Rédaction

Cet article explore les répercussions des nouvelles technologies algorithmiques à la base de l’intelligence artificielle (IA) sur les temporalités sociales et les rapports individuels et collectifs au temps autour de trois idées principales. Premièrement, le déploiement des technologies algorithmiques brouille la distinction traditionnelle entre temps de travail et temps de loisir. Deuxièmement, et de façon reliée, les technologies algorithmiques accélèrent le temps, en particulier les rythmes de vie. Troisièmement, les algorithmes participent aujourd’hui à la construction sociale des rapports individuels et collectifs au passé, au présent et au futur, et cette base technologique des temporalités sociales sous-tend un régime d’historicité présentiste.[1]

Algorithmes et brouillage des catégories de temps traditionnelles

Depuis la Grèce antique, une distinction s’opère entre deux catégories d’emploi du temps, le temps de la production des nécessités de la vie ou le temps de travail d’un côté, et le temps de loisir de l’autre. Cette distinction traditionnelle des catégories de temps prend plusieurs formes historiques, mais perdure somme toute dans l’histoire. Or, les technologies algorithmiques ont aujourd’hui un impact important sur le temps de travail et le temps de loisir, allant même jusqu’à brouiller cette distinction.

Il faut d’abord examiner les effets des technologies algorithmiques sur les temps de loisir, en débutant avec deux aspects fondamentaux sur le plan historique. D’une part, ce sont largement des temps dits « discrétionnaires », c’est-à-dire des temps qui demeurent sous le contrôle de l’individu, organisés et meublés de pratiques à sa discrétion. D’autre part, et malgré des variations et différences selon les contextes sociohistoriques, on peut néanmoins y voir d’importantes continuités sur la longue durée, notamment le fait que le temps de loisir a été conçu et pratiqué comme une forme de temps « extraéconomique ». En effet, les temps de loisir ne participent généralement pas de la fonction économique de la vie, c’est-à-dire de la production des nécessités, des biens et services qui reproduisent matériellement les corps. Ils se conçoivent et se pratiquent donc à l’écart des pratiques productives, du travail et du marché. Le capitalisme industriel reproduit cette distinction temporelle entre temps des nécessités de la reproduction économique et temps de loisir et la radicalise à plusieurs égards, notamment en la spatialisant. Le travail et son temps sont, dans l’idéal type de la société industrielle, confinés à un espace-temps bien défini : le quart de travail salarié. Le temps de loisir, de son côté, se passe à l’extérieur du lieu de travail, que ce soit à la maison ou dans des lieux où se pratiquent des activités de loisir. Dans ce régime temporel, temps de travail et temps de loisir sont bien distingués et délimités, et le temps de loisir ne produit pas de valeur d’échange. En ce sens, nous avons hérité d’une distinction historique entre temps de travail et temps de loisir où le premier est productif de valeur économique et le deuxième est exempt de tâches productives – souvent d’ailleurs au prix d’une exploitation du travail d’autrui, notamment du travail domestique effectué par les femmes – et peut être consacré à des pratiques de vie bonne et de réalisation de soi, à l’écart de la production et du marché. Nous constatons aujourd’hui, en revanche, une colonisation massive des temps de loisir par le marché, jusqu’à poser la question de la caducité de cette distinction.

L’arrimage du temps de loisir au marché par l’entremise de la consommation est un phénomène qui précède la période contemporaine du capitalisme algorithmique[2]. Autrement dit, les temps de loisir se meublent de pratiques de consommation bien avant les années 2000 et 2010. Ces processus prennent toutefois de l’ampleur aujourd’hui, notamment en raison de la place grandissante et de l’efficacité redoutable des mécanismes de la publicité ciblée que développent les nouvelles technologies algorithmiques dont l’utilisation occupe également les périodes de loisir. Cependant l’arrimage du temps de loisir au marché atteint désormais un nouveau stade à l’ère du capital algorithmique : le temps de loisir, un temps non travaillé et non rémunéré, devient lui-même productif : il produit des données qui, une fois valorisées, participent de l’accumulation du capital. Ce développement est si spectaculaire qu’il oblige à repenser les catégories mêmes de temps – et de valeur – puisqu’il complique grandement la distinction entre temps de travail « productif » et temps de loisir « non productif ».

Pour bien saisir les causes de ces bouleversements, il faut regarder du côté de l’infrastructure technologique du capital algorithmique : la prolifération des écrans d’ordinateur, des tablettes, des téléphones intelligents, des technologies portables, des senseurs, des caméras, des capteurs qui participent non seulement d’une réorganisation du temps de travail, mais plus encore qui exacerbent de façon importante la tendance qu’ont les temps de loisir de se réduire à des « temps d’attention » passés devant l’écran, à des « temps d’écran ». Le temps en ligne et le temps d’écran ont augmenté de façon spectaculaire dans les dernières années, et couvrent maintenant une bonne partie des heures éveillées, travaillées ou non. Par exemple, des données récentes montrent que les Américaines et Américains passent en moyenne jusqu’à 11 heures par jour en interaction avec un média quelconque. Les médias sociaux et les applications de messagerie occupent en moyenne 2 heures et 31 minutes de la journée. Une étude britannique fait état d’une moyenne de 25,1 heures par semaine passées en ligne, deux fois plus qu’il y a dix ans. Le groupe d’âge des 16-24 ans est particulièrement « connecté » à l’Internet via les écrans, passant en moyenne 34 heures par semaine en ligne. Dans ce groupe d’âge, 4 heures par jour en moyenne sont passées à regarder l’écran du téléphone (la moyenne pour tous les adultes est de 2 h 39 min). Certaines des applications les plus populaires captent jusqu’à près d’une heure de temps d’attention par jour en moyenne (58 minutes pour Facebook, 53 minutes pour Instagram)[3]. De plus, ce temps d’attention est effectivement monnayable dans les marchés publicitaires et produit des données qui, une fois traitées, forment un matériau, un actif valorisé par les compagnies comme Google et Meta qui en font la collecte. Par ailleurs, cette extraction dépasse le « temps d’écran » proprement dit, et se poursuit dans nos interactions avec des objets connectés (autos, électroménagers, outils), des applications de toutes sortes (diète, sport, exercices) et notre présence dans des environnements connectés[4].

Il nous reste toujours le temps de sommeil, non ? Là aussi s’insère le capital algorithmique. Comme l’a montré Crary, le temps de sommeil n’est plus le rempart ultime contre l’exploitation/extraction du capital, les technologies numériques selon lui parvenant à déranger le temps de sommeil et à dégager des moments « productifs », par exemple le cellulaire au lit dans des périodes d’éveil nocturne. Des « innovations » se présentent également sur le marché, comme l’appareil « Halo » de la jeune entreprise (startup) américaine PropheticAI qui utilise l’apprentissage machine afin d’induire des états de rêve lucide lorsque l’utilisatrice ou l’utilisateur est en sommeil profond, de façon à « augmenter la productivité nocturne », en permettant par exemple de coder la nuit[5].

Au bout du compte, le temps de travail, le temps de loisir, voire même le temps de sommeil, sont happés par l’appareillage technologique du capital algorithmique[6]. À notre époque, le temps d’attention captif devient la principale catégorie de l’expérience vécue du temps, et l’extraction de données se poursuit dans toutes nos interactions connectées. Le résultat net de ces processus est un arrimage croissant des temps vécus, rémunérés ou non, au marché capitaliste et à l’accumulation du capital algorithmique.

L’accélération algorithmique

Rappelons un paradoxe important dans les études du temps social qui concerne l’accélération des rythmes de vie, un sentiment partagé par une proportion toujours croissante d’individus[7]. Alors que l’expérience qualitative de manquer de temps est largement partagée dans la population, les données quantitatives d’usage du temps font plutôt état d’un rythme de vie assez stable, où indépendamment des qualifications relatives aux différences socioéconomiques, les gens disposent en moyenne d’autant de temps de loisir qu’auparavant, dorment et travaillent en moyenne le même nombre d’heures. Pouvons-nous trouver dans les développements de l’appareillage de captation du temps d’attention du capital algorithmique un facteur explicatif du sentiment d’accélération des rythmes de vie ? Comme nous l’avons vu, cette nouvelle catégorie sociale de temps d’attention passé devant l’écran brouille substantiellement la distinction entre temps de travail et temps de loisir. Ultimement, c’est en occupant une part de plus en plus grande du temps de loisir que le temps d’attention captif de l’écran le dégrade en réduisant le « loisir pur[8] », en multipliant les interruptions, les sollicitations, et en le désorganisant. C’est ainsi que le sentiment d’accélération du rythme de vie se trouve renforcé par cette diminution de la qualité discrétionnaire du temps de loisir par son arrimage aux impératifs et aux pressions du marché.

Rappelons aussi l’argument similaire de Judy Wajcman à propos du temps de travail : les technologies informationnelles le pressurisent également afin de le rendre plus productif, plus intensif, ce qui peut sous-tendre un sentiment d’accélération[9]. Désormais, les technologies algorithmiques et l’IA contribuent à intensifier le temps de travail rémunéré, voire à l’accélérer. Des travaux récents montrent que l’IA n’automatise pas le travail en général, mais automatise et réorganise certaines tâches, en créant par ailleurs pour les humains une série de nouvelles tâches d’entretien et de supervision des algorithmes plus fragmentées, aliénantes, et parfois même non rémunérées[10]. Les technologies algorithmiques au travail ont des répercussions complexes et différenciées sur le travail selon les secteurs et selon les types d’algorithmes et d’IA, mais, de façon générale, elles visent à augmenter la production de survaleur relative et intensifient ainsi le travail[11]. Le temps de travail comme expérience vécue est donc accéléré même si la quantité d’heures travaillées demeure stable, puisque ces heures sont accrues en intensité.

Le temps d’attention est une forme de temps qui peut facilement s’arrimer au temps du marché par la médiation de l’écran et de l’univers des interfaces, plateformes, applications et réseaux sociaux; il peut, sous la logique de pratiques de publicité ciblée, de marketing, de création d’addictions et d’extraction de données, subir la pression des impératifs de productivité, de rapidité, d’efficacité et d’accélération de cette forme de temps du marché. L’arrimage grandissant des temps de loisir au marché et la capture du temps d’attention par l’appareillage addictif du capitalisme algorithmique accélèrent notre temps et l’orientent vers une logique de réalisation de soi fortement liée aux pratiques en ligne de consommation et de socialisation. De plus, les temps de loisir ainsi arrimés au marché sont sujets à diverses formes de désorganisation temporelle, ce qui entraine une perte du contrôle discrétionnaire sur le déroulement des pratiques de loisir. Autrement dit, en s’arrimant au marché et en devenant ainsi un temps économique, le temps de loisir échappe davantage au contrôle de l’individu. Davantage de pressions émanant du marché, comme les incitations à performer, à entretenir son soi numérique, à produire des données, à consommer, à répondre aux messages, à vérifier les notifications entrecoupent le loisir pur et dégradent sa qualité discrétionnaire.

En somme, le capital algorithmique, surtout dans le déploiement de son infrastructure technologique extractive, transforme les catégories sociales de temps et l’expérience vécue du temps, ce qui exacerbe l’accélération sociale et l’aliénation temporelle qui en découle. Les pratiques de vie bonne qui requièrent de longs moments de réflexion, des interactions sociales en personne, le développement d’une technique exigeant beaucoup de temps d’apprentissage, un espace-temps libre des soucis économiques, une adéquation entre les moyens et les fins d’une pratique deviennent en conséquence de plus en plus difficiles à atteindre dans un régime temporel contemporain si peu propice à ce type d’usage du temps et où le loisir pur s’effrite. La qualité temporelle que nécessitent certaines des « pratiques focales » dont parle Albert Borgmann[12], par exemple cuisiner et partager un repas, courir, faire une promenade en forêt, apprendre une langue pour le plaisir est plus difficile d’accès. Meubler nos horaires de pratiques de vie bonne et de temps véritablement libre constitue un défi herculéen à l’ère du capitalisme algorithmique, de la dépendance aux écrans et des sollicitations qui diminuent les vertus discrétionnaires du temps.

Au bout du compte, nous pouvons postuler que les technologies algorithmiques risquent d’alimenter encore plus la dynamique globale d’accélération sociale qui a accompagné la modernité capitaliste depuis ses débuts[13]. En ce sens, il n’y a pas de rupture radicale avec l’avènement de l’intelligence artificielle, des médias sociaux et des technologies numériques; ils ne font que prolonger et intensifier un processus d’accélération qui était déjà en cours depuis des siècles. Ainsi, l’arrivée des machines algorithmiques dans les différents recoins du monde social contribuera encore davantage à l’accélération du rythme de vie. Cela invalide l’hypothèse selon laquelle l’intelligence artificielle pourrait enfin rendre possible l’utopie de la « société des loisirs », comme certaines spéculations qui affirment avec naïveté que ChatGPT va enfin libérer l’humanité du travail. Au lieu de nous libérer du temps, le capitalisme algorithmique va au contraire amplifier l’expérience vécue de « pénurie temporelle », le sentiment que tout va toujours trop vite, que nous sommes constamment sollicités, que nous sommes perpétuellement dépassés par les événements et la marche frénétique du progrès technologique qui semble hors de notre contrôle. Le manque de temps, la multiplication des cas d’épuisement professionnel, mais aussi la cyberdépendance, l’anxiété et autres troubles psychiques associés à la surconsommation numérique constituent diverses formes de pathologies sociales liées au développement du capitalisme contemporain. Le temps éclaté annonce aujourd’hui une nouvelle phase de l’accélération sociale : l’accélération algorithmique.

La construction algorithmique des trois dimensions du rapport au temps

La technique est — et a toujours été — le grand médiateur du rapport au temps sur le plan collectif et individuel. L’organisation sociale du temps s’opère à l’aide d’objets, d’outils, d’appareils et éventuellement de technologies et d’institutions sociales de temps. Le gnomon[14], les calendriers, l’astrolabe, la clepsydre[15], les horloges et montres mécaniques, le temps universel coordonné appuyé sur des horloges atomiques : différentes technologies organisent et institutionnalisent le temps en société, toujours en rapport avec des formes de pouvoir social[16]. Le substrat technologique des relations sociales de temps joue également un rôle déterminant dans l’expérience et la conscience du temps, et l’élaboration de ce que François Hartog appelle les « régimes d’historicité[17] » est toujours en rapport complexe avec ce substrat technologique.

De plus, il est également possible de concevoir la technique elle-même comme une structure mémorielle. Chaque objet technique, et le monde technique en général, est dépositaire d’un savoir-faire, d’une tekhnê[18] humaine, et le monde objectif qui nous entoure est constitué d’une accumulation de mémoire, de rétentions ainsi déposées dans des objets techniques. De même l’écriture, l’art, l’architecture, l’ingénierie, etc. On peut donc voir la technique, ou aujourd’hui la vaste infrastructure technologique qui supporte la vie sociale et individuelle, comme une « structure rétentionnelle » où se loge un savoir, une mémoire collective et un savoir-faire collectif. Le monde technique est en ce sens le passé présent parmi nous, à partir duquel nous construisons le futur[19].

De ce point de vue, la prolifération des technologies algorithmiques aux échelles individuelles et sociales occasionne également une certaine reconfiguration des rapports au temps. Tant sur le plan individuel que collectif, les algorithmes organisent et médiatisent le rapport au passé, au présent et au futur.

Premièrement, l’accès au passé collectif, à la mémoire collective désormais constituée d’une immense structure rétentionnelle informatisée et industrialisée (base de données, serveurs, Internet, etc.) est largement médiatisé par des algorithmes. La vaste numérisation des documents et des supports informationnels qui ont colligé la mémoire collective d’une part importante de l’histoire humaine, couplée à la mise en place de moyens de classement, d’archivage et de recherche d’information algorithmique (moteurs de recherche, mots-clés, base de données numérisées, etc.) font en sorte que des technologies algorithmiques, souvent développées et contrôlées par des entreprises privées dont les opérations sont toujours sujettes à l’attraction gravitationnelle de l’impératif de profit, médiatisent l’accès au passé, à l’information stockée dans ces structures rétentionnelles numérisées, à la mémoire collective. Sur le plan individuel, nous faisons par exemple souvent confiance à Google pour notre accès à l’information, Sur le plan collectif, notre mémoire est désormais accessible selon des programmes informatisés, souvent des technologies algorithmiques, sur lesquelles le public, la démocratie ou encore l’agentivité humaine n’ont que peu de prise réelle.

Deuxièmement, le présent est lui aussi désormais largement construit par les technologies algorithmiques, et ce, sous deux aspects : l’extraction et la « curation[20] ». D’une part, le présent devient un moment extractiviste, c’est-à-dire que la vaste infrastructure d’extraction algorithmique déployée dans toutes les sphères de la vie sociale prélève de chaque instant une immense quantité de données qui forment ensuite un matériau brut qui reproduit l’accumulation du capital algorithmique. De ce point de vue, le présent est réduit à un matériau, à une « ressource première » enregistrée comme données. Le présent algorithmique est ce qui est effectivement extrait, numérisé, enregistré et ensuite stocké dans les structures rétentionnelles informatisées. Ce qui ne l’est pas, « l’événement » dont les points de données ne sont pas extraits/enregistrés par l’infrastructure d’extraction technologique, ne participera pas à la construction de l’expérience d’un présent collectif désormais vécue et médiatisée par les interfaces technologiques[21]. Cette occurrence, cet événement non enregistré tombe dans l’oubli de la temporalité algorithmique.

Cela mène au second aspect de la construction du présent par les technologies algorithmiques : la curation. L’expérience vécue, qu’elle soit individuelle ou collective, est de plus en plus médiatisée par des technologies algorithmiques. Ainsi, cette expérience nous est « présentée » par des interfaces qui organisent le présent « actuel » selon un processus de curation. Prenons par exemple les médias sociaux et les « fils d’actualité » qu’on y retrouve. Ces fils sont une suite d’éléments structurée par un algorithme avec l’impératif de générer du temps d’attention. Ils organisent ce fil d’actualité, ce qui « se passe », tel un présent qui défile sous nos yeux. Ce qui fait partie ou non de ce présent, de cette actualité, est tributaire d’un enregistrement/extraction préalable par des technologies extractives. Ainsi l’expérience individuelle est une interaction avec une actualité, un présent, produit d’un processus d’extraction et de curation algorithmique.

Troisièmement, et sans doute de façon encore plus inquiétante, les technologies algorithmiques construisent un futur… qui est lui-même une répétition du passé. Cette temporalité algorithmique est tributaire de la condition technique même des algorithmes : ce sont des machines à prédire le futur à partir du passé. Plus précisément, les algorithmes sont entrainés à partir de « données massives » extraites des moments présents individuels et collectifs et stockées dans des serveurs. Ces données, traitées par divers processus de travail digital, entrainent les algorithmes à prédire des événements ou des comportements futurs sur la base du contenu des données d’entrainement. Par exemple, la police prédictive entraine des algorithmes de prédiction de crime à partir des données de l’histoire criminelle d’une certaine société[22]. Si cette histoire est marquée par des pratiques policières racistes, la criminalisation de la pauvreté ou encore un système juridico-carcéral discriminatoire, l’algorithme entrainé par ces données « prédira » un risque de récidive plus élevé chez un prévenu racisé et pauvre, ou encore une zone à risque de crime dans des quartiers où vivent des communautés racisées et défavorisées. La surveillance accrue de ces communautés augmente en retour les chances d’y intercepter des activités criminalisées. La prédiction du crime est ici davantage une production de crime, une forme de prophétie autoréalisatrice[23]. La même temporalité de répétition sous-tend la publicité ciblée. L’extraction de données comportementales qui vous identifie comme un consommateur de musique de jazz « prédit » une forte probabilité que vous achetiez des billets pour le prochain spectacle local d’Esperanza Spalding, prédiction dont on peut favoriser l’avènement par des publicités ciblées combinées à des techniques de nudge[24] subtiles et efficaces[25].

Dans cet éternel retour du même, l’algorithme ne fait que refléter l’état probabiliste des choses révélé par ses données d’entrainement. En somme, les algorithmes codifient le passé, et c’est là leur prédiction du futur. En ce sens, le futur algorithmique est une automatisation de la répétition du passé qui exclut la nouveauté, la naissance, l’imprévisible, la « différance » au sens derridien du terme. La temporalité algorithmique constitue ainsi une fermeture tragique de l’horizon temporel humain, une négation de notre agentivité individuelle sur le cours de notre vie et une négation de notre capacité collective à faire l’histoire. C’est une automatisation machinique non pas de la mesure du temps, mais du temps lui-même. En outre, la construction de la temporalité par les algorithmes nous enferme dans la reproduction éternelle de l’accumulation et du pouvoir du capital. Les luttes pour la libération des temps et des espaces de l’emprise du capital algorithmique deviennent dès lors des luttes pour une réappropriation de notre temps.

Nous pouvons donc qualifier la temporalité algorithmique de présentiste[26]. Non pas qu’elle éradique le passé et le futur : elle les construit activement au contraire. L’horizon temporel et les subjectivités temporelles individuelles et collectives sont toutefois absorbés dans ce processus de reconduction, de reproduction d’états de fait passés, codifiés, automatisés et reproduits. Le passé et le futur se fondent ainsi dans un présent hypertrophié qui code le passé et reproduit le présent ad vitam aeternam, où derrière une culture de la vitesse et une soi-disant innovation tous azimuts, c’est l’éternel retour du même qui s’accélère.

Conclusion

La temporalité algorithmique est une construction complexe et multidimensionnelle. Premièrement, elle participe d’une économie politique extractive en arrimant nos temps vécus (travail, loisir, voire sommeil) aux mécanismes d’extraction de données qui alimentent l’accumulation du capital. Deuxièmement, les algorithmes sont des accélérateurs du temps social, surtout au niveau technique de l’optimisation des processus mécaniques, et sur le plan de l’accélération des rythmes de vie en déqualifiant les temps de loisir et en soumettant de plus en plus les temps vécus, sous la forme de temps d’attention captif, aux pressions et impératifs du marché capitaliste. Troisièmement, les technologies algorithmiques construisent un rapport au passé, au présent et au futur qui nie de façon fondamentale l’agentivité individuelle et collective et le contrôle que nous pouvons exercer sur notre vie et sur nos futurs collectifs.

L’idéologie des élites technologiques de la Silicon Valley s’approprie le futur en déployant de grands récits autour des intelligences artificielles générales, des risques existentiels, de techno-utopies cosmistes, extropianistes, longtermistes et transhumanistes, où tous les problèmes sociaux se solutionnent à terme par l’IA, où la technologie sauve le monde et nous promet des lendemains chantants, prospères, heureux, voire intergalactiques[27]. Cet imaginaire futuriste cache en fait une temporalité profondément présentiste et récurrente, où le futur est la reproduction du pouvoir actuel d’une élite technocapitaliste, de l’actuel développement technologique effréné et aveugle, et de la fermeture d’horizons temporels alternatifs, technosobres, low-tech, conviviaux, décroissancistes et postcapitalistes. Devant ce constat, il s’agit de lutter afin de libérer des temps et des espaces individuels et collectifs de l’horizon du capital algorithmique, bloquer les mécanismes d’accumulation du capital algorithmique, fonder et alimenter des modes d’organisation alternatifs technosobres et non capitalistes et ainsi se réapproprier nos temps.

Par Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia


  1. Cet article reproduit, condense et développe plus avant des idées et des passages des publications suivantes : Jonathan Martineau, « Du rapport au temps contemporain : l’accélération de l’histoire et le présentisme, entre historicité et temporalité », Philosophiques, vol. 50, no 1, 2023, p. 175‑89 ; Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023 ; Jonathan Martineau et Jonathan Durand Folco, « Paradoxe de l’accélération des rythmes de vie et capitalisme contemporain : les catégories sociales de temps à l’ère des technologies algorithmiques », Politique et Sociétés, vol. 42, no 3, 2023. Je remercie Écosociété pour la permission de reproduire ici des passages, de les résumer ou les développer davantage. Je réfère les lecteurs et lectrices à ces travaux pour approfondir les thèses présentées ici et pour consulter des listes de références détaillées.
  2. Martineau et Durand Folco, Le capital algorithmique, 2023, op. cit.
  3. Charles Hymas, « A decade of smartphones : we now spend an entire day every week online », The Telegraph, 2 août 2018 ; Charles Hymas, « A fifth of 16-24 year olds spend more than seven hours a day online every day of the week, exclusive Ofcom figures reveal », The Telegraph, 11 août 2018 ; BroadbandSearch, Average time spent daily on social media (latest 2020 data), 7 février 2023 ; Dave Chaffey, Global social media statistics research summary 2023, 7 juin 2023 ; Ashley Rodriguez, « Americans are now spending 11 hours each day consuming media », Quartz, 31 juillet 2018 ; Ofcom, Adults’ Media Use & Attitudes. Report 2020 , 24 juin 2020.
  4. Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2022.
  5. Jonathan Crary, 24/7. Late Capitalism and the Ends of Sleep, Londres, Verso, 2014 ; Marcus Dupont-Besnard, « Cet appareil neural est sorti de Black Mirror. Objectif : travailler en dormant », Numerama, 5 décembre 2023.
  6. Pour un examen de la colonisation du temps de la reproduction sociale par le capital algorithmique, voir la thèse 6 de Martineau et Durand Folco, Le capital algorithmique, 2023, op. cit. ; voir aussi Jonathan Martineau et Jonathan Durand Folco, « The AI fix ? Algorithmic capitalism and social reproduction », Spectre, no 8, automne 2023.
  7. John P. Robinson et Geoffrey Godbey, Time for Life, University Park, Pennsylvania State University Press, 2008 ; Hartmut Rosa, Aliénation et accélération. Vers une théorie critique de la modernité tardive, Paris, La Découverte, 2012.
  8. Le « loisir pur » désigne un temps sous la discrétion et le contrôle du sujet, continu, meublé d’une pratique de vie bonne telle que définie et voulue par le sujet.
  9. Judy Wajcman, Pressed for Time. The Acceleration of Life in Digital Capitalism, Chicago, The University of Chicago Press, 2014.
  10. Antonio A. Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019 ; Mary L. Gray et Siddharth Suri, Ghost Work. How to Stop Silicon Valley from Building a New Global Underclass, Boston, Houghton Mifflin Harcourt, 2019.
  11. Aaron Benanav, Automation and the Future of Work, Londres/New York, Verso, 2020; Wajcman, op. cit..
  12. Albert Borgmann, « Focal things and practices », dans Craig Hanks (dir.), Technology and Values. Essential Readings, Hoboken, Wiley-Blackwell, 2010.
  13. Rosa, Aliénation et accélération, 2012, op. cit.
  14. Cadran solaire rudimentaire composé d’une tige verticale dont l’ombre se projette sur une surface horizontale.
  15. Horloge à eau utilisée dans l’Antiquité.
  16. Jonathan Martineau, L’ère du temps. Modernité capitaliste et aliénation temporelle, Montréal, Lux, 2017.
  17. François Hartog, Régimes d’historicité. Présentisme et expériences du temps, Paris, Seuil, 2015.
  18. NDLR. Mot grec signifiant art, artisanat, métier.
  19. Bernard Stiegler, La technique et le temps, Paris, Fayard, 2018.
  20. NDLR. Curation : sélection et mise en valeur de données, de contenus.
  21. Stiegler, op. cit.
  22. Andrew G. Ferguson, The Rise of Big Data Policing. Surveillance, Race, and the Future of Law Enforcement, New York, New York University Press, 2017.
  23. Ruha Benjamin, Race After Technology, Medford (MA), Polity Press, 2019.
  24. Cet anglicisme désigne un outil conçu pour modifier nos comportements au quotidien, sous la forme d’une incitation discrète. Il se traduit littéralement en français par « coup de coude » ou « coup de pouce ».
  25. Karen Yeung et Martin Lodge (dir.), Algorithmic Regulation, New York, Oxford University Press, 2019.
  26. Hartog, Régimes d’historicité, 2015, op. cit.; Christophe Bouton, L’accélération de l’histoire. Des Lumières à l’Anthropocène, Paris, Seuil, 2022 ; Martineau, « Du rapport au temps contemporain…», 2023, op. cit.
  27. Voir Émile P. Torres, « TESCREALism : The Acronym Behind Our Wildest AI Dreams and Nightmares », Truthdig, 15 juin 2023.

 

L’intelligence artificielle et la fonction publique : clarification des enjeux

29 août, par Rédaction

L’arrivée de l’intelligence artificielle (IA) générative auprès du public ces dernières années a augmenté la tenue de discours polarisants où elle est parfois présentée comme un risque existentiel ou comme une technologie révolutionnaire. Or, il y a un écart flagrant entre ce type de discours et l’usage actuel de l’IA au sein de la fonction publique, voire en général. Loin d’une superintelligence, les applications actuelles sur les sites Web gouvernementaux prennent plutôt la forme de « robots conversationnels », d’algorithmes de détection de fraudes, d’automatisation de la prestation de services ou encore d’assistance au diagnostic médical[1]. Loin d’une révolution sociale, l’IA perpétue plutôt le statu quo, c’est-à-dire la marginalisation et la discrimination de certaines populations selon des critères de genre, de religion, d’ethnicité ou de classe socioéconomique.

En déployant ces algorithmes dans l’appareil administratif, l’État cherche à accroitre la productivité, à diminuer les coûts et à améliorer la qualité des services fournis, tout en réduisant les biais et en personnalisant les services. Cependant, l’intégration de l’IA dans l’administration publique québécoise demeure pour le moment limitée et peu transparente. Les gains envisagés avec l’aide de l’IA, quant à eux, s’articulent principalement du côté de la répartition du temps des fonctionnaires, en concentrant leur travail sur des tâches plus « humaines » et moins « mécaniques ». Toutefois, l’automatisation ne se limite pas à une simple redistribution du temps de travail, mais met en œuvre plutôt une transformation substantielle des responsabilités et des dynamiques du travail[2]. Les conceptrices et concepteurs des fonctionnalités des algorithmes occupent une place de plus en plus importante tandis que les autres employé·es se voient davantage relégués à des rôles de soutien, par exemple, en nettoyant les données entrantes ou en vérifiant les données sortantes[3]. En ce sens, bien loin d’affranchir les travailleuses et travailleurs des tâches fastidieuses, l’IA ancre davantage l’aspect répétitif du travail administratif. Cette transition s’inscrit dans une restructuration plus vaste des relations socioéconomiques du « capital algorithmique », où l’accumulation, le contrôle et la valorisation des données massives reconfigurent les dynamiques de pouvoir et les rapports sociaux vers une nouvelle économie politique[4].

Dans un tel contexte, il y a un véritable risque de tomber dans un « solutionnisme technologique[5] » qui réduit des problèmes sociaux et politiques complexes, comme le décrochage scolaire ou l’engorgement du système de santé, à des enjeux pouvant se régler à l’aide d’une application ou d’une technologie. Alors que les écoles publiques sont en piètre état, qu’une pénurie de professeur·es et une précarité généralisée persistent, le gouvernement se réjouit du potentiel de l’IA pour personnaliser l’apprentissage et repérer les élèves à risque de décrochage en temps réel, et il y investit plusieurs millions[6]. Ce genre de discours n’est pas sans conséquence. Il reflète la réorientation des valeurs ainsi que celle des fonds publics vers une « économie de la promesse[7] » profondément spéculative dont les retombées économiques sont principalement captées par les entreprises du secteur privé[8].

Outre ce premier piège, plusieurs enjeux découlent directement de l’adoption de l’IA dans les différentes sphères de la fonction publique, soit l’opacité des outils de prise de décision, l’aggravation des inégalités sociales et l’absence d’imputabilité.

L’enjeu de l’opacité

Pour des raisons techniques, les processus décisionnels algorithmiques sont difficiles, voire impossibles à établir. Cette opacité constitue, en quelque sorte, un problème dès le départ : comment évaluer qu’une « boite noire » se conforme aux normes et principes d’équité exigés de la fonction publique ? Comment garantir une reddition de comptes ? En ce sens, des enjeux légaux et techniques découlent de l’utilisation de l’IA et entrainent déjà des conséquences importantes.

L’opacité des outils décisionnels automatisés est problématique lorsque leur fonctionnement, voire leur usage, sont sous le sceau du secret commercial ou d’autres barrières légales à l’accès à l’information. Le développement de technologies d’IA par le personnel de l’administration publique est rarement envisagé en raison des coûts initiaux élevés et du manque d’expertise technique. C’est donc largement par appels d’offres ou par l’acquisition de systèmes clés en main que les divers ordres de gouvernement et les municipalités « modernisent » leurs opérations. L’approvisionnement en outils algorithmiques dont le fonctionnement est protégé par le secret commercial est maintenant devenu pratique courante[9]. Pourtant, l’incapacité de présenter le raisonnement derrière une décision générée par un algorithme pose des problèmes de conformité aux cadres normatifs de non-discrimination et d’imputabilité. Certains y voient la source d’une crise de la légitimité du rapport entre le gouvernement et les citoyens et citoyennes[10].

Dans le système judiciaire américain, les applications de l’IA soulèvent des questions sur le droit à un procès juste et équitable. Les juges utilisent couramment des outils algorithmiques pour appuyer leur verdict, mais ils le font à l’aveugle, en quelque sorte. Le logiciel intitulé COMPAS est peut-être le plus connu de ces outils. La Cour suprême du Wisconsin, dans State v. Loomis[11], a statué que l’utilisation de COMPAS sans en divulguer le fonctionnement ni aux juges ni aux appelants n’enfreignait pas le droit à un procès juste et équitable. À l’inverse, dans Michael T. v. Crouch[12], le tribunal a jugé que l’absence de standards vérifiables pour l’allocation de prestations médicales générées automatiquement par des algorithmes représentait de sérieux risques pour le droit à un procès juste et équitable. Ainsi, les personnes affectées ont vu leurs prestations médicales réinstaurées après avoir été coupées subitement par un algorithme dont aucun moyen ne permettait d’établir comment il calculait les indemnités.

De même, les Pays-Bas ont suspendu en 2020 le système de détection de fraudes SyRI dans les prestations sociales parce qu’il contrevenait aux droits de la personne. Les personnes touchées, toutes issues de quartiers défavorisés, n’étaient pas informées du fait que leur profil fiscal avait été trié et jugé frauduleux uniquement par un algorithme. Le fonctionnement de l’outil, quant à lui, était opaque et invérifiable autant pour le tribunal que pour le public[13]. Pour cette raison, l’utilisation de SyRI a été déclarée contraire à la loi. Le gouvernement australien a de son côté déployé Robodebt, un système automatisé de détection de fraudes. Banni en 2019, cet algorithme avait causé des dommages affectant, cette fois-ci, des centaines de milliers de prestataires qui se trouvaient contraints à contester des dettes qui leur avaient été attribuées par erreur[14].

Les administrations publiques canadienne et québécoise utilisent également ce type d’outils. À l’échelle fédérale, un système automatise le tri des demandes de permis de travail et fait progresser celles qui sont admissibles, tandis que les autres demeurent sous la responsabilité des agents de l’immigration[15]. Au Québec, l’utilisation du Système de soutien à la pratique (SSP) comme serveur mandataire soulève des préoccupations qui se sont accentuées en réaction aux « incohérences » produites par l’outil dans un dossier où un enfant a perdu la vie[16]. Ce système prédit la sévérité du risque que court un enfant dans son milieu à partir d’un formulaire de questions à choix multiples. Dans son rapport, Me Géhane Kamel insiste sur le fait que les évaluations générées par le SSP « ne doivent pas se substituer au jugement professionnel des intervenants ». Elle souligne d’ailleurs l’importance du contexte dans lequel se découlent des événements : pénurie de main-d’œuvre, budgets « faméliques » et charge de travail démesurée[17].

L’opacité des outils algorithmiques de prise de décision utilisés par des juges, des administrateurs et d’autres employé·es de l’État est un thème récurrent dans la littérature qui se penche sur l’intégration de l’IA à l’administration publique. Le besoin de transparence à cet égard est évident ; la loi et les directives administratives peuvent jouer ce rôle.

Dans l’État de Washington, le corps législatif a déjà reconnu cette problématique. Déposé en 2019 et désormais sous révision par le Sénat, le projet de loi SB 5356, 2023-2024[18], interdit les clauses de non-divulgation et autres obstacles à la transparence dans les contrats d’acquisition de systèmes décisionnels algorithmiques. En outre, tous les systèmes acquis ou développés au sein de la fonction publique doivent être inventoriés. L’inventaire enregistre des informations sur les données, l’objectif, la capacité générale du système, ses impacts et ses limitations, les évaluations de biais potentiels et les facteurs déterminant son déploiement (où, quand, et comment). Ce genre de descriptif doit être clair pour les utilisateurs et utilisatrices indépendamment de leur capacité à connaitre le langage du code.

Outre les obstacles légaux, les applications de l’IA peuvent être opaques aussi pour des raisons techniques. Même avec le code source, auditer un algorithme et expliquer son fonctionnement constituent des tâches laborieuses pour les experts, surtout en ce qui concerne l’apprentissage automatique, car il présente divers degrés d’opacité[19]. Si Robodebt était problématique, c’est en partie parce que l’outil était trop simple pour une tâche nécessitant beaucoup de nuance[20]. En revanche, une complexité accrue, bien que parfois préférable, compromet la capacité d’interprétation du fonctionnement d’un système. Cette tension, désignée comme l’enjeu de l’« explicabilité », est complexifiée par l’évolution d’un système au fil du temps. À titre d’exemple, un outil de priorisation des ressources municipales entre divers quartiers tel le logiciel MVA[21] doit tenir compte du phénomène d’embourgeoisement observé avec le temps. Afin d’éviter qu’il soit désuet ou pire, nuisible, il faut effectuer une mise à jour périodique des critères décisionnels encodés dans l’outil, ce qui complique l’encadrement par audits externes[22]. Il en va de même sur le plan géographique, où la non-prise en compte des différences socioculturelles peut entrainer des conséquences néfastes[23].

Au vu de ces limites, des mesures de transparence doivent surtout éclaircir le contexte sociotechnique dans lequel ces systèmes sont conçus, déployés et entretenus. Contrairement aux détails techniques, cette information est connue du grand public et permet des échanges démocratiques sur des cas d’utilisation appropriée et inappropriée d’outils algorithmiques. Après tout, ces débats sont essentiels puisque les concepteurs de systèmes doivent parfois trouver un compromis entre des objectifs contradictoires tels que l’équité et l’efficacité[24].

L’enjeu de la discrimination et de l’injustice

Les spécialistes des données sont sollicités pour traduire la prise de décisions administratives en problèmes d’optimisation. L’évaluation de la vulnérabilité d’une personne en situation d’itinérance avec l’outil VI-SPDAT[25], par exemple, se réduit à une prédiction à partir de données telles que le nombre d’hospitalisations, la prescription de médicaments et l’identité de genre. L’« art » du métier consiste à trouver et à accumuler les données dotées du plus grand potentiel prédictif, mais celles-ci comportent également un potentiel discriminatoire. Depuis quelques années, un nombre grandissant d’ouvrages documente et critique les formes de discrimination et d’injustice diffusées par les applications émergentes de l’IA[26].

Aux États-Unis, les communautés qui ont été historiquement davantage surveillées sont aujourd’hui victimes de profilage par des systèmes algorithmiques entrainés à partir de données reflétant le racisme systémique de l’histoire criminelle. Dans un tel contexte, les effets discriminatoires ne sont pas une conséquence du dysfonctionnement de l’algorithme, mais plutôt un reflet d’inégalités enracinées dans les rapports sociaux. Même certaines caractéristiques absentes telles que le sexe, l’âge, l’ethnicité, la religion peuvent être inférés par l’algorithme de façon insidieuse à partir de données comme le code postal, l’emploi ou le prénom[27]. En ce sens, la proposition selon laquelle les algorithmes sont plus neutres et objectifs que les humains est insoutenable puisque les données utilisées par un algorithme sont elles-mêmes biaisées.

En outre, des effets discriminatoires peuvent naitre de l’accumulation de données déséquilibrées. Lorsque l’ensemble des données d’entrainement représente de façon disproportionnée certains groupes à cause d’un manque d’entrées ou d’un surplus, le modèle reproduira ces biais. Par exemple, certains systèmes de reconnaissance faciale actuellement utilisés par la police sont moins précis pour identifier les personnes racisées, car leurs visages sont insuffisamment représentés dans l’ensemble des données et, de ce fait, ils dévient de la norme du visage blanc[28]. Porcha Woodruff et Rendal Reid, détenus à tort par la police sous prétexte d’avoir été identifiés par un système de reconnaissance faciale, sont deux cas d’une liste de plus en plus longue de personnes profilées à tort par le biais de ces technologies[29].

De même, une collection d’outils d’évaluation du risque de récidive, conçus par et pour les personnes blanches, sont employés dans le cas de détenus autochtones au Canada. Dans Ewert c. Canada, la Cour suprême du Canada a statué que le Service correctionnel du Canada (SCC) :

n’avait pas pris les mesures raisonnables appropriées pour s’assurer que ses outils produisaient des résultats exacts et complets à l’égard des détenus autochtones […] Le SCC savait que les outils suscitaient des craintes, mais il a continué à s’en servir malgré tout[30].

Ainsi, les effets discriminatoires de l’IA se réalisent autant par l’exclusion des personnes racisées de l’ensemble des données que par leur inclusion.

L’enjeu de l’imputabilité

Afin de prévenir le déploiement d’algorithmes opaques et discriminatoires, l’encadrement responsable de l’IA ne peut pas se limiter aux déclarations de valeurs et de principes qui, outre le scepticisme à propos de leur efficacité, effectuent une sorte de « lavage éthique ». Les mécanismes d’imputabilité traditionnels, où une action répréhensible est attribuée à son auteur ou son autrice, sont défaillants lorsque des systèmes algorithmiques sont en cause. En ce qui concerne la fonction publique, il faut se tourner vers le droit administratif.

D’abord, les décisions administratives sont jugées selon leur raisonnabilité. Il s’agit de la norme de contrôle appliquée par défaut pour évaluer la validité d’une décision prise par une institution publique[31]. C’est, en quelque sorte, le cœur des mécanismes de protection du citoyen et de la citoyenne. À l’inverse, une décision est jugée déraisonnable s’il y a un « manque de logique interne dans le raisonnement » ou encore un « manque de justification[32] ». Toutefois, comme l’illustre Michael T. v. Crouch, présenter une explication du procédé logique d’un algorithme s’avère parfois impossible[33].

Les outils algorithmiques utilisés en soutien à la décision, quant à eux, complexifient le problème d’imputabilité. State v. Loomis démontre que malgré le besoin de systèmes dont le fonctionnement est intelligible, on peut contourner ceux-ci lorsqu’ils produisent des recommandations plutôt que des décisions. Outre les biais cognitifs relatifs à la fiabilité des algorithmes, ces derniers « réduisent le sentiment de contrôle, de responsabilité et d’agentivité morale chez les opérateurs humains[34] ». Les mécanismes d’imputabilité actuels attribuent le blâme aux personnes et non aux outils d’aide à la décision sans tenir compte des nouvelles dynamiques de pouvoir dans les environnements humain-IA. Or, le pouvoir décisionnel des fonctionnaires peut s’avérer négligeable, en particulier dans un contexte de prise de décision rapide, de manque de formation et de charge de travail démesurée[35]. Ainsi, tel que le souligne Wagner, « les gens ne peuvent pas être blâmés ou tenus responsables uniquement de leur pouvoir discrétionnaire : celui des systèmes techniques doit aussi être pris en compte[36] ». Dans les environnements humain-IA, des mécanismes de justice réparatrice doivent problématiser les dynamiques du travail, en dégager les enjeux et prescrire un changement des pratiques institutionnelles plutôt que d’attribuer le blâme et les sanctions aux individus.

Pour ce faire, l’encadrement des algorithmes doit s’effectuer sur plusieurs plans : à l’échelle de l’instrument, certes, mais également à l’échelle du contexte sociotechnique et de la société[37]. Les premières tentatives visant à assurer une utilisation responsable des algorithmes étaient axées sur la transparence des outils algorithmiques, ce qui est parfois irréalisable et jamais suffisant[38]. On doit établir des normes éthiques et des règles claires pour pallier les limites inhérentes à ces technologies, en commençant par une évaluation de la nécessité et des impacts d’un système d’IA pour une tâche donnée. Le corps législatif, quant à lui, doit mettre l’accent sur la création de nouveaux droits et obligations[39] en matière d’approvisionnement (interdiction de clauses de non-divulgation), de documentation ou encore le droit à une explication, le droit à un examen humain et la divulgation publique des objectifs, des risques et des répercussions de ces systèmes. De plus, les applications à haut risque, comme le SSP décrit précédemment, devraient se conformer à des normes plus strictes, s’accompagner de dossiers plus détaillés, être soumises à des examens plus fréquents et à des conséquences plus importantes en cas de négligence ou d’évitement.

Face à ces enjeux, le grand public joue un rôle clé dans le développement des applications de l’IA. Les pressions du public et les actions judiciaires collectives ont largement permis de retirer et de restreindre des systèmes opaques et discriminatoires tels que COMPAS, SyRI, Robodebt et d’autres. L’intégration des applications de l’IA s’inscrit dans la longue histoire de la technocratisation de l’État, où les techniques scientifiques sont valorisées au détriment de l’autonomisation des personnes et des qualités humaines qui sont pourtant essentielles à l’administration des services de soutien social. Devant les promesses du gouvernement québécois, on doit instaurer davantage d’espaces de discussions et de débats démocratiques sur la transition numérique des pouvoirs publics. Autrement, ces technologies continueront à opprimer plutôt qu’à rendre autonome.

Par Jérémi Léveillé, bachelier en arts libéraux et en informatique


  1. Gouvernement du Québec, Stratégie d’intégration de l’intelligence artificielle dans l’administration publique 2021-2026, juin 2021.
  2. Mark Bovens et Stavros Zouridis, « From street-level to system-level bureaucracies : how information and communication technology is transforming administrative discretion and constitutional control », Public Administration Review, vol. 62, n° 2, 2002.
  3. Jenna Burrell et Marion Fourcade, « The society of algorithms », Annual Review of Sociology, vol. 47, 2021.
  4. Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.
  5. Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014.
  6. Conseil de l’innovation du Québec, Le potentiel et les exigences de l’adoption de l’IA dans l’administration publique, Québec, Gouvernement du Québec, octobre 2023, p. 15 ; Hélène Gaudreau et Marie-Michèle Lemieux, L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux, Québec, Conseil supérieur de l’éducation, 2020.
  7. Maxime Colleret et Mahdi Khelfaoui, « D’une révolution avortée à une autre ? Les politiques québécoises en nanotechnologies et en IA au prisme de l’économie de la promesse », Recherches sociographiques, vol. 61, n° 1, 2020.
  8. Ana Brandusescu, Politique et financement de l’intelligence artificielle au Canada : investissements publics, intérêts privés, Montréal, Centre de recherches interdisciplinaires en études montréalaises, Université McGill, mars 2021, p. 37-40 ; Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, novembre 2023.
  9. Hannah Bloch-Wehba, « Access to algorithms », Fordham Law Review, vol. 88, n° 4, 2020, p. 1272.
  10. Ryan Calo et Danielle Keats Citron, « The automated administrative state : a crisis of legitimacy », Emory Law Journal, vol. 70, n° 4, 2021.
  11. State v. Loomis, 881 N.W.2d 749 (Wis 2016).
  12. Michael T. v. Crouch, No. 2:15-CV-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018).
  13. Christiaan Van Veen, Aux Pays-Bas, une décision judiciaire historique sur les États-providences numériques et les droits humains, Open Global Right, mars 2020.
  14. Catherine Holmes, Report, Royal Commission into the Robodebt Scheme, Brisbane (Australie), juillet 2023, p. 331.
  15. Immigration et citoyenneté Canada, Automatisation pour accélérer le traitement des permis de travail d’Expérience internationale Canada, Gouvernement du Canada, 7 novembre 2023.
  16. Pasquale Turbide, « Un logiciel de la DPJ mis en cause dans la mort d’un enfant », Radio-Canada, 14 novembre 2019.
  17. Me Géhane Kamel, Rapport d’enquête POUR la protection de LA VIE humaine concernant le décès de Thomas Audet, Québec, Bureau du coroner, février 2023.
  18. Washington State Legislature, Loi concernant l’établissement de lignes directrices pour l’approvisionnement gouvernemental de systèmes de décision automatisés afin de protéger les consommateurs, améliorer la transparence, et créer plus de prévisibilité du marché, SB 5356 – 2023-24, janvier 2023.
  19. Jenna Burrell, « How the machine “thinks” : understanding opacity in machine learning algorithms », Big Data & Society, vol. 3, n° 1, 2016 ; Joshua A. Kroll, Joanna Huey, Solon Barocas, Edward W. Felten, Joel R. Reidenberg, David G. Robinson, Harlan Yu, « Accountable algorithms », University of Pennsylvania Law Review, vol. 165, n° 3, 2017, p. 633-706.
  20. Catherine Holmes, op. cit., p. iii.
  21. Conseil jeunesse de Montréal, Avis sur l’utilisation de systèmes de décision automatisée par la Ville de Montréal. Assurer une gouvernance responsable, juste et inclusive, Montréal, février 2021, p. 33.
  22. Mike Ananny et Kate Crawford, « Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability », New Media & Society, vol. 20, n° 3, 2018, p. 982.
  23. Andrew D. Selbst, Danah Boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, Janet Vertesi, « Fairness and abstraction in sociotechnical systems », Proceedings of the Conference on Fairness, Accountability, and Transparency, 2019, p. 61.
  24. Teresa Scassa, « Administrative law and the governance of automated decision-making. A critical look at Canada’s Directive on automated decision making », U.B.C. Law Review, vol. 54, n° 1, 2021, p. 262-265.
  25. Conseil jeunesse de Montréal, op. cit., p. 32.
  26. Virginia Eubanks, Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor, New York, St. Martin’s Press, 2018 ; Saifya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, NYU Press, 2018 ; Ruha Benjamin, Race After Technology, Medford, Polity, 2019 ; Joy Buolamwini, Unmasking AI, New York, Penguin Random House, 2023 ; Cathy O’Neil, Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, Portland, Broadway Books, 2017.
  27. Kroll et al., « Accountable algorithms », op. cit., p. 656.
  28. Buolamwini, op. cit.
  29. Kashmir Hill, « Eight months pregnant and arrested after false facial recognition match », The New York Times, 6 août 2023 ; Kashmir Hill et Ryan Mac, « Thousands of dollars for something I didn’t do », The New York Times, 31 mars 2023.
  30. Cour suprême du Canada, Ewert c. Canada (Service correctionnel), 13 juin 2018 et <https://scc-csc.lexum.com/scc-csc/scc-csc/fr/item/17133/index.do>.
  31. Gouvernement du Canada, Processus décisionnel – Norme de contrôle et marche à suivre pour prendre une décision raisonnable, 12 juillet 2022 ; Cour suprême du Canada, Canada (ministre de la Citoyenneté et de l’Immigration) c. Vavilov, 19 décembre 2019, CSC 65.
  32. Jurisource, Normes de contrôle (schématisé), 2020.
  33. Michael T. v. Crouch, Action civile No. 2:15-cv-09655, 2018 WL 1513295 (S.D.W. Va. Mar. 26, 2018).
  34. Ben Green, « The flaws of policies requiring human oversight of government algorithms », Computer Law & Security Review, vol. 45, 2022, p. 7. Notre traduction.
  35. Ben Wagner, « Liable, but not in control ? Ensuring meaningful human agency in automated decision-making systems », Policy & Internet, vol. 11, n° 1, 2019, p. 104-122.
  36. Ibid., p. 16. Notre traduction.
  37. Joshua A. Kroll, « Accountability in computer systems », dans Markus D. Dubber, Frank Pasquale et Sunit Das (dir.), The Oxford Handbook of Ethics of AI, Oxford, Oxford University Press, 2020, p. 181-196 ; Micheal Veale et Irina Brass, « Administration by algorithm ? Public management meets public sector machine learning », dans Karen Yeung et Martin Lodge (dir.), Algorithmic Regulation, Oxford, Oxford University Press, 2019.
  38. Ananny et Crawford, op. cit., p. 985.
  39. Veale et Brass, op. cit.

 

L’intelligence artificielle comme lieu de lutte du syndicalisme enseignant

14 août, par Rédaction

Pour plusieurs, y compris pour les enseignantes et les enseignants, il n’y a pas longtemps, l’intelligence artificielle (IA) était synonyme de machines ou de robots déréglés qui menacent l’humanité dans les films de science-fiction tels La Matrice ou Terminator. Il n’est donc pas étonnant que le lancement du robot conversationnel ChatGPT à la fin de la session de l’automne 2022 ait eu l’effet d’une bombe dans le milieu de l’enseignement supérieur. Certaines et certains y voient une innovation prometteuse alors que d’autres soulèvent des inquiétudes, notamment sur la facilité accrue de plagier ou de tricher. Si ChatGPT est l’application d’intelligence artificielle générative la plus publicisée, elle n’est toutefois pas la seule, loin de là. Depuis quelques années, plusieurs établissements d’enseignement ont décidé de recourir à des systèmes d’intelligence artificielle (SIA) aux fonctions diverses. Bien que l’IA soit intégrée à une variété d’outils présents dans nos habitudes quotidiennes depuis un certain temps déjà, il est primordial de mener une réflexion sur l’usage qu’on devrait en faire en éducation, et plus largement sur son utilité pour le mode de fonctionnement et les objectifs de notre système éducatif, ainsi que sur les limites à y imposer.

Depuis plusieurs années, la FNEEQ-CSN développe une réflexion critique sur le recours aux technologies numériques au sein du système de l’éducation. Celles-ci sont omniprésentes et souvent présentées comme une solution miracle et inévitables face aux problèmes qui affectent l’enseignement[3]. On pense notamment au développement de l’enseignement à distance[4] que la pandémie a accéléré, à l’utilisation des ordinateurs, des tablettes ou encore des controversés tableaux blancs interactifs promus par le premier ministre libéral Jean Charest. À notre avis, comme syndicalistes enseignantes et enseignants, il est fondamental de se poser, en amont, des questions sur le recours aux technologies numériques en général et à l’IA en particulier. 1) Permettent-elles de bonifier la relation pédagogique ? 2) Constituent-elles l’unique et la meilleure option disponible ? 3) Leur utilisation peut-elle être éthique et responsable ? Si oui, dans quelle(s) situation(s) ? 4) À qui profitent-elles vraiment et quels sont les véritables promoteurs de l’IA ? 5) Comment agir pour que l’IA puisse être au service du développement d’une société humaine équitable, diversifiée, inclusive, créative, résiliente, etc. ?

Consciente de l’intérêt présent pour ces technologies, la FNEEQ et son comité école et société[5] ont développé une posture « technocritique », évitant ainsi le piège de la rhétorique polarisante « technophiles » versus « technophobes », afin de pouvoir appréhender ce phénomène majeur de façon rigoureuse. En effet, même si ce dernier peut fournir des outils utiles pour certains besoins particuliers, par exemple un logiciel destiné à pallier un handicap, il fait peser des menaces sérieuses sur la profession enseignante et sur la relation pédagogique : ainsi il peut favoriser la fragmentation de la tâche, l’individualisation à outrance de l’enseignement, l’augmentation des inégalités et la surcharge de travail, liée entre autres à l’adaptation de l’enseignement. À terme, il peut produire plus de précarité et contribuer à la déshumanisation du milieu de l’éducation.

Quelques exemples de l’usage de l’IA en éducation et en enseignement supérieur au Québec

C’est lors du conseil fédéral de la FNEEQ des 4, 5 et 6 mai 2022 que le comité école et société a été mandaté pour « documenter et […] développer une réflexion critique au sujet du recours à l’intelligence artificielle en éducation et en enseignement supérieur[6] ». Dans son rapport publié en mai 2023, le comité y recense entre autres certains usages de l’IA.

L’IA en classe

Le rapport[7] présente quatre formes d’utilisation de l’IA pour ce qui est de l’enseignement et de l’apprentissage proprement dits.

  • Les systèmes tutoriels intelligents (STI) : ceux-ci proposent des tutoriels par étapes et personnalisés qui emploient le traçage des données produites par les étudiantes et les étudiants pour ajuster le niveau de difficulté en fonction de leurs forces et faiblesses.
  • Les robots intelligents : on a recours à ces robots notamment auprès d’élèves qui ont des troubles ou des difficultés d’apprentissage ainsi que pour des élèves qui ne peuvent être en classe à cause d’un problème de santé ou pour des enfants en situation de crise humanitaire.
  • Les agents d’apprentissage : certains robots ou fonctionnalités de l’IA sont utilisés notamment comme agents virtuels à qui l’élève enseigne les concepts à apprendre. Par exemple, en Suisse, des élèves enseignent à un robot comment écrire.
  • Les assistants pédagogiques d’IA : l’évaluation automatique de l’écriture (EAE) est une forme d’assistant pédagogique qui propose une correction formative ou sommative des travaux écrits. L’EAE ne fait pas l’unanimité, car elle comporte de nombreux présupposés. Par exemple, elle récompense les phrases longues, mais qui n’ont pas nécessairement de sens, et n’évalue pas la créativité d’un texte.

Sélection, orientation et aide à la réussite – Soutien et accompagnement des étudiantes et étudiants

En plus des outils de nature pédagogique, d’autres applications de l’IA concernent la sélection, l’orientation, l’aide à la réussite tout comme le soutien individuel et l’accompagnement des étudiantes et des étudiants.

Le forum virtuel de la Fédération des cégeps, Données et intelligence artificielle. L’innovation au service de la réussite, tenu le 9 mars 2022, fut l’occasion de présenter diverses applications de l’IA dans l’administration scolaire québécoise. Par exemple, les données colligées des étudiantes et des étudiants peuvent être traitées par l’IA afin de prédire leur comportement individuel ou collectif. Les responsables des dossiers des élèves peuvent s’inspirer de ces pronostics pour guider leurs interventions. À l’aide d’un progiciel de gestion intégrée (PGI), constitué de la cote R, de l’âge et du code postal, on peut même tenter de prévoir le risque de décrochage, le nombre d’échecs, les notes finales ou la durée des études !

Citons quelques exemples d’outils déjà bien implantés dans nos établissements :

  • ISA (Interface de suivi académique) : l’objectif de l’outil, dédié aux professionnel·les du réseau collégial, est d’évaluer les risques d’abandon scolaire à l’aide d’algorithmes conçus à partir des données personnelles des étudiantes et des étudiants (historique et résultats scolaires, ressources consultées, etc.);
  • Vigo : est un robot conversationnel qui accompagne directement des élèves du secondaire[8] durant leur parcours scolaire ; il peut communiquer directement avec les élèves, leur poser des questions sur l’évolution de leurs résultats, leur prodiguer des encouragements et des conseils, notamment sur leurs méthodes d’études;
  • DALIA : l’objectif de DALIA « est de rendre disponible aux établissements d’enseignement collégial un outil d’analyse prédictive basé sur l’intelligence artificielle (IA) afin de mieux accompagner les étudiantes et étudiants dans leur réussite scolaire[9] ».

Risques et dérives potentielles de l’IA

Le comité école et société a identifié plusieurs risques et dérives potentielles du recours sans contraintes à l’intelligence artificielle.

Protection des renseignements personnels, collecte des données et biais

L’intelligence artificielle repose sur un recours aux algorithmes et sur la collecte massive de données, très souvent personnelles. C’est à partir de celles-ci que les systèmes d’intelligence artificielle « apprennent ». La question de la qualité de l’origine des données utilisées est alors fondamentale. On y réfère dans le milieu par l’expression « garbage in, garbage out » : « Si les données initiales sont erronées, les résultats le seront tout autant[10] ». Or, les SIA et leurs propriétaires offrent peu de transparence au public ou à l’État afin de pouvoir valider et contrôler les différents types de biais.

La discrimination algorithmique

Des cas répertoriés de « discrimination algorithmique[11] » sont particulièrement troublants et touchent tant les SIA de recrutement (de personnel, par exemple) et l’étiquetage (identification à l’aide de mots clés du contenu d’un document ou d’une image) que les propos diffamatoires et l’incitation à la haine. Ainsi, plusieurs cas de discrimination visant les femmes, les personnes racisées ou de la communauté LGBTQ+ ont été rapportés. En fait, les SIA reproduisent les biais et stéréotypes véhiculés par les humains. Différentes formes de profilage découlent également de l’utilisation de ces systèmes car la discrimination reproduite par les algorithmes est directement liée à la question fondamentale du pouvoir. Or l’industrie de la technologie est essentiellement sous l’emprise d’un groupe somme toute assez restreint de personnes composé d’hommes blancs fortunés.

Respect de la propriété intellectuelle

Le respect du droit d’auteur ou d’autrice constitue également un enjeu important. Les dispositions législatives actuelles sont trop laxistes et ne permettent pas de protéger adéquatement ce droit. Cela soulève la question majeure que représentent le plagiat et la tricherie. Si on transpose cette problématique au contexte scolaire, on peut considérer que l’étudiante ou l’étudiant qui utilise un robot conversationnel dans le cadre d’une évaluation n’est pas l’autrice ou l’auteur du contenu généré, qu’il s’agit d’un cas de tricherie au même titre que tous les autres cas de fraude intellectuelle, à moins que l’utilisation d’une IA ait été autorisée dans le cadre de l’évaluation. Quoi qu’il en soit, dans la mesure où l’une des missions premières de l’éducation est d’amener l’élève et l’étudiante à développer sa pensée critique, lui permettre de déléguer son travail intellectuel à un robot relève d’un non-sens. Notons par ailleurs qu’il est extrêmement difficile et fastidieux de détecter et de prouver les cas de plagiat comme cela a été souligné dans un reportage diffusé en juin dernier sur ICI Mauricie-Centre-du-Québec[12].

IA et recherche

L’une des craintes les plus importantes est que les SIA accentuent la course à la « productivité scientifique » et le risque de fraude. Le journaliste scientifique Philippe Robitaille-Grou rapporte que la production d’articles scientifiques falsifiés constitue une véritable industrie dopée par l’utilisation de plus en plus répandue de l’IA[13]. Ces usines à articles vendent des publications avec des résultats inventés ou modifiés pour quelques centaines de dollars à des chercheurs et chercheuses dont la reconnaissance scientifique et le financement dépendent du nombre de publications à leur nom.

Dans ce contexte, on peut se poser de sérieuses questions sur le « savoir » [re]produit par les SIA. Quelles sont les sources utilisées ? Quelles sont les réflexions épistémologiques ? Quels sont les cadres théoriques ? Sur la base des études consultées, les risques d’une reproduction des savoirs dominants sont gigantesques. Ajoutons à cela que, selon les informations disponibles, la moitié des sources d’une plateforme comme ChatGPT est constituée de références anglophones; seulement 5 % sont en français[14]. Une menace quant à la diversité culturelle est avérée.

Quoi faire ? Quel encadrement ?

Le Conseil fédéral de la FNEEQ a adopté une série de recommandations[15] sur l’intelligence artificielle au cœur desquelles figure la recommandation d’un moratoire, suggéré par ailleurs par plusieurs acteurs clés de cette industrie.

Des balises rigoureuses doivent impérativement être mises de l’avant afin de prévenir les dérives identifiées et anticipées.

  • La réflexion sur l’IA ne se dissocie pas de la réflexion globale sur l’omniprésence des technologies en éducation et dans la vie quotidienne, et ce, dans un contexte de technocapitalisme où l’IA demeure sous l’égide d’entreprises privées à but lucratif.
  • Les SIA ne devraient pas être utilisés pour remplacer des personnes dans des contextes de relation d’aide ou de relation pédagogique, afin notamment de respecter la protection des renseignements personnels et du droit à la vie privée, lorsque des enjeux éthiques sont impliqués ou lorsque les actes posés sont susceptibles d’être réservés à des membres d’un ordre professionnel, par exemple une psychologue, un travailleur social…
  • Des contraintes financières ou de recrutement de personnel ne devraient pas entrer en ligne de compte dans le choix d’un SIA.
  • L’IA ne devrait pas être employée pour recruter ou évaluer des membres du personnel, des élèves, des étudiantes ou des étudiants.
  • Tout potentiel recours aux SIA dans les établissements d’enseignement devrait faire l’objet d’une entente locale avec les syndicats, car ces systèmes affectent profondément les conditions de travail. L’implantation des SIA devrait être sous la supervision de comités paritaires auxquels participeraient notamment des enseignantes et des enseignants.
  • De plus, sur le plan individuel, l’utilisation des SIA devrait toujours être optionnelle pour le corps enseignant et pour les étudiantes et étudiants. Elle devrait aussi toujours être le fruit d’un consentement éclairé.

Compte tenu du développement chaotique actuel des SIA, nous estimons que le principe de précaution, applicable en environnement, devrait aussi être adopté en regard des technologies. Ainsi, « en cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives[16] ». Bref, il devrait appartenir à tout organisme (école, cégep, université, ministère) et promoteur qui envisagent de recourir à un SIA d’en démontrer hors de tout doute raisonnable l’innocuité avant son implantation. En ce sens, les facteurs suivants devraient être considérés :

  • la protection complète et effective des renseignements personnels des utilisateurs et des utilisatrices;
  • la protection complète et effective du droit d’auteur et d’autrice;
  • le contrôle contre les risques de discrimination algorithmique;
  • les mesures de transparence des technologies utilisées et la redevabilité et l’imputabilité des propriétaires de celles-ci;
  • les mesures de contrôle démocratique de la technologie en valorisant les technologies développées par des OBNL ou les logiciels libres.

Ces facteurs pourraient aussi faire l’objet d’un encadrement national et international comme l’Europe s’apprête à le faire[17]. À titre d’outil de contrôle, on peut s’inspirer de la suggestion de l’enseignante et philosophe Andréanne Sabourin-Laflamme, selon qui les SIA devraient systématiquement et régulièrement subir des audits algorithmiques, lesquels permettent notamment « d’évaluer, avec toutes sortes de processus techniques, par exemple, la représentativité des données, et de vérifier s’il y a présence d’effets discriminatoires[18] ».

Les actions accomplies

La FNEEQ-CSN a su profiter de différents forums pour faire valoir ses positions, y compris les médias, notamment à la mi-mai 2023 lors de la tenue de la Journée sur l’intelligence artificielle organisée par le ministère de l’Enseignement supérieur. Elle a aussi participé à deux consultations, l’une organisée par le Conseil supérieur de l’éducation, en collaboration avec la Commission de l’éthique en science et technologies, et l’autre par le Conseil de l’innovation du Québec menée à l’été 2023 [19]. Le slogan Vraie intelligence, vrai enseignement choisi par la FNEEQ en concordance avec ses positions a marqué la rentrée de l’automne 2023.

La FNEEQ envisage par ailleurs la tenue, au début de l’année 2024, d’un événement public sur l’intelligence artificielle selon un point de vue syndical. Malheureusement, les conférences et ateliers donnés dans les différents établissements adoptent généralement une approche jovialiste de l’IA et donnent peu ou pas de place aux points de vue davantage technocritiques. Il nous semble fondamental de diffuser auprès des enseignantes et des enseignants et de la population en général une information complémentaire qui aborde les enjeux du travail.

La réflexion et l’action doivent être élargies à l’ensemble du monde du travail afin de nouer des alliances. À cet effet, la FNEEQ a exposé ses travaux dans le cadre de la 12e Conférence sur l’enseignement supérieur de l’Internationale de l’éducation tenue à Mexico en octobre 2023. Nous travaillons aussi au sein de la CSN afin de développer un discours syndical intersectoriel sur cet enjeu majeur. Plusieurs professions risquent d’être affectées par le recours à l’IA, notamment dans la santé, comme le révélait récemment une étude de l’Institut de recherche et d’informations socioéconomiques (IRIS)[20].

Les recommandations du Conseil de l’innovation du Québec et du Conseil supérieur de l’éducation devraient être rendues publiques au début de l’année 2024. Espérons que ces organismes prendront en compte les craintes légitimes et les mises en garde bien documentées et exprimées par la société civile et par les organisations syndicales.

L’action de l’État sera aussi nécessaire que fondamentale. L’univers technologique, et l’IA en particulier, est accaparé et contrôlé par de grandes entreprises, notamment les GAFAM[21]. Nous connaissons également les impacts écologiques désastreux de ces technologies[22].

Le gouvernement canadien a déposé en 2022 un projet de loi visant à encadrer « la conception, le développement et le déploiement responsables des systèmes d’IA qui ont une incidence sur la vie des Canadiens[23] ». Or, plusieurs organisations et spécialistes jugent « que les dispositions actuelles du projet de loi ne protègent pas les droits et les libertés des citoyennes et citoyens canadiens contre les risques liés à l’évolution fulgurante de l’intelligence artificielle[24] ».

Devant la stagnation de l’étude de son projet de loi, le ministre François-Philippe Champagne a mis en place un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés[25]. Or, bon nombre d’entreprises rejettent l’idée de se conformer à un cadre réglementaire sous peine de voir le Canada perdre un avantage dans la course au développement de l’IA[26]. Bref, pour plusieurs de ces entreprises, la loi de la jungle devrait prévaloir en IA comme dans bien d’autres domaines tels que la santé, l’éducation…

Plus récemment, le conflit au sein de l’administration d’OpenAI, l’instigateur de ChatGPT, à propos du congédiement, puis de la réintégration de son PDG Sam Altman semble confirmer la victoire du camp de l’« innovation » face à celui de la précaution, et celle de la mainmise des grandes entreprises, comme Microsoft, sur le développement et le contrôle du produit[27]. D’ailleurs, Microsoft, au moment même où elle se lançait dans l’intégration de l’IA générative dans ses produits, dont la suite Office, licenciait son équipe responsable des enjeux d’éthique[28].

En conclusion, jusqu’à tout récemment, le développement des technologies pouvait faire craindre pour les emplois techniques et à qualifications moins élevées, notamment dans le secteur industriel (la robotisation). Or, le développement de l’IA menace maintenant plus de 300 millions d’emplois[29]. Les emplois de bureau et professionnels, surtout occupés par des femmes, seraient particulièrement menacés[30]. En 2021, la Commission de l’éthique en science et technologie affirmait que « la possibilité que le déploiement de l’IA dans le monde du travail contribue à l’augmentation des inégalités socioéconomiques et à la précarité économique des individus les plus défavorisés est bien réelle et doit être prise au sérieux par les décideurs publics[31] ». L’impact phénoménal de cette nouvelle technologie, que l’on doit analyser dans le contexte socioéconomique-écologique actuel, doit nous pousser comme organisation syndicale à sensibiliser nos membres sur ses risques et à militer pour un encadrement substantiel et évolutif de cette technologie par l’État et par les travailleuses et travailleurs. C’est un rappel que la technologie doit d’abord et avant tout servir l’être humain et non l’inverse.

Par Caroline Quesnel, présidente, et Benoît Lacoursière, secrétaire général et trésorier de la Fédération nationale des enseignantes et des enseignants du Québec (FNEEQ-CSN)[1]


  1. L’autrice et l’auteur tiennent à remercier les membres du comité école et société de la FNEEQ qui ont participé d’une manière ou d’une autre à la rédaction de ce texte : Ann Comtois, Stéphane Daniau, Sylvain Larose, Ricardo Penafiel et Isabelle Pontbriand. Nous remercions aussi Joanie Bolduc, employée de bureau de la FNEEQ pour la révision du texte.La FNEEQ est affiliée à la Confédération des syndicats nationaux (CSN) et représente 35 000 enseignantes et enseignants du primaire à l’université. Elle représente notamment environ 85 % du corps enseignant des cégeps et 80 % des chargé es de cours des universités, ce qui en fait l’organisation syndicale la plus représentative de l’enseignement supérieur. Ce texte se base principalement sur les travaux du comité école et société de la FNEEQ, particulièrement son rapport Intelligence artificielle en éducation. De la mission à la démission sociale : replaçons l’humain au cœur de l’enseignement, 2023.
  2. Comité école et société, Augmentation du nombre d’étudiantes et d’étudiants en situation de handicap, diversification des profils étudiants et impacts sur la tâche enseignante, Montréal, FNEEQ, 2022.
  3. Comité école et société, L’enseignement à distance : enjeux pédagogiques, syndicaux et sociétaux, Montréal, FNEEQ, 2019.
  4. Composé de cinq militantes et militants élus, le comité a pour mandat principal de fournir des analyses qui enrichissent la réflexion des membres et des instances sur les problématiques actuelles ou nouvelles en éducation.
  5. FNEEQ-CSN, Conseil fédéral – N° 3. Réunion ordinaire des 4, 5 et 6 mai 2022. Recommandations adoptées, p. 5.
  6. Comité école et société, 2023, op. cit., partie 3.
  7. La journaliste Patricia Rainville indiquait en 2019 que 20 000 élèves utilisaient Vigo et qu’on visait l’ensemble des élèves du réseau public, soit 800 000 élèves, en 2023. Patricia Rainville, « Vigo, l’assistant scolaire robotisé d’Optania, accompagne 20 000 élèves au Québec », Le Soleil, 13 septembre 2019.
  8. Regroupement des cégeps de Montréal, L’intelligence artificielle au bénéfice de la réussite scolaire, présentation au Forum de la Fédération des cégeps du Québec, 9 mars 2022.
  9. Julie-Michèle Morin, « Qui a peur des algorithmes ? Regards (acérés) sur l’intelligence artificielle », Liberté, n°  329, hiver 2021, p. 43.
  10. Notamment de sexisme, de racisme ou d’hétérosexisme.
  11. Radio-Canada, « ChatGPT inquiète le milieu de l’enseignement à Trois-Rivières », Ici Mauricie-Centre-du-Québec, 1er juin 2023.
  12. Philippe Robitaille-Grou, « Une industrie de fraudes scientifiques de masse », La Presse, 8 janvier 2023.
  13. France-Culture, « ChatGPT, l’école doit-elle revoir sa copie ? », Être et savoir, baladodiffusion, Radio France, 13 février 2023.
  14. FNEEQ-CSN, Conseil fédéral – N° 6. Réunion des 31 mai, 1er et 2 juin 2023. Recommandation adoptée.
  15. ONU, Déclaration de Rio sur l’environnement et le développement, Rio de Janeiro, juin 1992.
  16. Agence France-Presse, « L’Union européenne va pour la première fois encadrer l’intelligence artificielle », Le Devoir, 8 décembre 2023.
  17. Chloé-Anne Touma, « Grand-messe de l’IA en enseignement supérieur : de belles paroles, mais des actions qui tardent à venir », CScience, 16 mai 2023.
  18. FNEEQ-CSN, Avis de la FNEEQ-CSN transmis au Conseil supérieur de l’éducation dans le cadre de sa consultation sur l’utilisation des systèmes d’intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, 13 juin 2023.
  19. Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, novembre 2023.
  20. NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft.
  21. Karim Benessaieh, « Un impact environnemental monstre », La Presse, 3 juin 2023.
  22. Gouvernement du Canada, Loi sur l’intelligence artificielle et les données.
  23. La Presse canadienne, « Le projet de loi sur l’IA jugé inadéquat par des spécialistes », Radio-Canada, 26 septembre 2023.
  24. Alain McKenna, « Au tour du Canada d’adopter un code de conduite volontaire pour l’IA », Le Devoir, 27 septembre 2023.
  25. Radio-Canada, « L’industrie divisée quant au “code de conduite volontaire” d’Ottawa pour l’IA », 1er octobre 2023.
  26. Kevin Roose, « l’IA appartient désormais aux capitalistes », La Presse+, 24 novembre 2023.
  27. Bruno Guglielminetti, « Microsoft licencie les gens responsables de l’éthique de l’IA », Mon Carnet de l’actualité numérique, 14 mars 2023.
  28. Agence QMI, « Jusqu’à 300 millions d’emplois menacés par l’intelligence artificielle », Le Journal de Québec, 28 mars 2023.
  29. Claire Cain Miller et Courtney Cox, « Les emplois de bureau menacés par l’intelligence artificielle », La Presse, 30 août 2023.
  30. Commission de l’éthique en science et technologie (CEST), Les effets de l’intelligence artificielle sur le monde du travail et la justice sociale : automatisation, précarité et inégalités, Québec, Gouvernement du Québec, 17 juin 2021, p. 53.

 

Capitalisme de surveillance, intelligence artificielle et droits humains

8 août, par Rédaction

Le vingt et unième siècle a vu l’essor d’une nouvelle phase de développement du capitalisme qualifiée par Shoshana Zuboff de capitalisme de surveillance[1], alors que d’autres, comme Jonathan Durand Folco et Jonathan Martineau, parlent plutôt de capitalisme algorithmique[2]. Dans cet article, nous utiliserons l’une ou l’autre de ces appellations, selon l’angle d’analyse.

Ce nouveau capitalisme, fondé sur l’exploitation des données personnelles rendues disponibles par un monde de plus en plus hyperconnecté a été développé par des entreprises qui, jeunes pousses (startups) au début des années 2000, ont aujourd’hui la plus haute capitalisation boursière. Ces entreprises ont pu déployer leur activité sans qu’aucun mécanisme ne les régule. L’essor débridé de ce nouveau capitalisme bouleverse les rapports sociaux sur tous les plans et représente une menace pour les libertés et la démocratie, en plus d’avoir des répercussions majeures sur de nombreux droits humains en matière de santé, de travail et d’environnement.

Les fondements du capitalisme de surveillance

Au début des années 2000, Google cherche à rentabiliser son moteur de recherche et se rend compte que l’activité des usagères et usagers génère une masse de données qui permettent d’en inférer leurs goûts, leur orientation sexuelle, leur état de santé physique et psychologique, etc. Ces données, que Shoshana Zuboff qualifie de surplus comportemental, possèdent une grande valeur marchande car elles permettent, après traitement, de vendre davantage de publicité en ciblant les personnes les plus réceptives et d’orienter leurs comportements. Elles constituent le nouveau pétrole, la matière première du capitalisme de surveillance.

Les géants du numérique, en particulier Facebook, n’ont pas tardé à s’engouffrer dans la voie ouverte par Google. La collecte de données sur nos comportements ne connait plus de limites. La prolifération d’objets connectés permet de scruter nos vies et nos corps dans leurs recoins les plus intimes : capteurs corporels qui enregistrent nos signes vitaux, lits connectés qui surveillent notre sommeil, assistants vocaux qui espionnent nos conversations, balayeuses robotisées dotées de caméras qui se promènent partout dans la maison. La capture de données a été investie par des entreprises dont le produit n’a au départ rien à voir avec la collecte de données. L’exemple des fabricants d’automobiles est frappant.

Aux États-Unis, la compagnie sans but lucratif Mozilla a décrit les voitures comme le pire produit qu’elle a examiné en matière de violation de la vie privée[3]. Les constructeurs d’autos collectent de l’information à partir de vos interactions avec votre véhicule, des applications que vous utilisez, de vos communications téléphoniques avec l’application mains libres, de vos déplacements, ainsi que de tiers comme Sirius XM et Google Maps. Or, 84 % des fabricants avouent partager ces informations avec des fournisseurs de services ou des agrégateurs de données, 76 % disent qu’ils peuvent les vendre et 56 % déclarent qu’ils les fournissent au gouvernement ou à la police sur simple demande. Parmi les informations que l’usagère ou l’usager « accepte » de partager, il peut y avoir l’activité sexuelle (Nissan et Kia) et six compagnies mentionnent les informations génétiques. De plus, 92 % des fabricants donnent peu ou pas de contrôle à l’usagère ou l’usager et présument que vous acceptez ces politiques en achetant leur véhicule. Seuls Renault et Dacia, dont les voitures sont vendues en Europe et soumises à la réglementation européenne, offrent une réelle option de refus. Tesla, la pire des compagnies examinées par Mozilla, vous informe que vous pouvez refuser la collecte de ces informations mais que votre voiture pourrait souffrir des dommages et devenir… inopérante !

Au Québec, les lois de protection des renseignements personnels font barrière à de telles pratiques. Une entreprise ne peut recueillir de renseignements personnels qu’avec le consentement de la personne et pour une fin déterminée. Ce consentement peut être retiré en tout temps. L’entreprise ne peut recueillir que les renseignements nécessaires aux fins déterminées avant la collecte. Cette obligation de limiter la cueillette aux seuls renseignements nécessaires est impérative et une entreprise ne peut y déroger même avec le consentement de la personne concernée. Par ailleurs, il est possible de recueillir des renseignements personnels au moyen d’une technologie capable d’identifier des personnes, de les localiser ou d’en effectuer le profilage. Cependant, cela ne doit être fait qu’avec le consentement des personnes de sorte que cette technologie doit être désactivée par défaut. Les sanctions en cas de non-respect de la loi peuvent être importantes. Cela dit, on peut se demander dans quelle mesure la Commission d’accès à l’information (CAI) pourra s’assurer du respect de ces dispositions dans un marché mondial de l’automobile. Contrairement à l’assistant vocal qu’on peut refuser d’acheter, la voiture est un bien essentiel pour beaucoup de personnes.

Information, débat public et démocratie

Les données comportementales récoltées peuvent tout aussi bien être utilisées pour influer sur des processus démocratiques comme les référendums et les élections. Le cas de Cambridge Analytica est bien documenté. Cette compagnie a exploité jusqu’en 2014 la possibilité offerte par Facebook aux développeurs d’application d’avoir accès aux données de tous les ami·e·s des utilisatrices et utilisateurs de l’application. C’est ainsi qu’elle a pu obtenir les données de 87 millions de personnes. Ces données lui ont permis de cibler des électrices et des électeurs et de les bombarder de messages susceptibles de les inciter à appuyer Donald Trump aux élections de 2016. La compagnie est également intervenue pour influer sur le vote de la sortie du Royaume-Uni de l’Union européenne, le Brexit.

Le fonctionnement même des plateformes contribue à polluer le débat démocratique. Pour mousser l’engagement de l’internaute, les plateformes mettent à l’avant-plan les « nouvelles » les plus sensationnalistes et, par le fait même, se trouvent à faire la promotion de fausses nouvelles (fake news). Pour maintenir son intérêt, elles vont proposer des liens vers des sites qui confortent son opinion, ce qui le confine dans des chambres d’écho qui favorisent la montée de l’extrémisme. Les conséquences sont particulièrement graves dans les pays du Sud global, où les mécanismes de modération de contenu de Facebook sont particulièrement peu nombreux et peu efficaces. La propagation de fausses nouvelles a exacerbé la violence ethnique en Éthiopie et contribué au génocide des Rohingyas au Myanmar.

En même temps, nous assistons à la destruction accélérée des médias traditionnels provoquée par ces plateformes. La circulation d’une information fiable et diversifiée, essentielle à la vie démocratique, est laminée par le capitalisme algorithmique.

Le problème des méfaits en ligne

Le fonctionnement même des plateformes est propice à la prolifération d’activités toxiques ou carrément illégales en ligne. En réponse aux populations qui leur demandent d’agir, les gouvernements ont entrepris d’adopter des projets de loi ayant pour but de sévir contre ces méfaits.

En juillet 2021, le gouvernement du Canada a proposé de créer un seul système pour traiter cinq types de méfaits très différents : le discours haineux, le partage non consensuel d’images intimes, le matériel d’abus sexuel d’enfant, le contenu incitant à la violence et le contenu terroriste.

Le projet aurait créé un régime de surveillance appliqué par les plateformes qui inciterait celles-ci à retirer du contenu rapidement, sous peine d’amendes sévères, sur simple dénonciation d’un tiers et sans possibilité d’appel. La menace à la liberté d’expression était patente. De plus, les plateformes auraient été obligées de partager ces contenus avec les forces de l’ordre et les agences de sécurité nationale.

Face au tollé qu’a suscité son projet, le gouvernement est retourné à la planche à dessin et nous attendons toujours un nouveau projet. Cette saga illustre la difficulté de règlementer les dommages en ligne sans tomber dans une autre forme de surveillance liberticide. Peut-on éviter ce dilemme sans remettre en question le modèle d’affaires des plateformes qui tirent profit de ce genre d’activités ?

Les effets délétères sur la santé

Les plateformes sont fondées sur une rétroaction conçue pour développer une dépendance aux écrans, ce qui a des conséquences délétères sur la santé. Elles peuvent favoriser l’isolement au détriment de rapports sociaux significatifs. L’effet est particulièrement dévastateur pour les jeunes et affecte les filles plus que les garçons. Dans sa dénonciation de Facebook, la lanceuse d’alerte Frances Haugen[4] a dévoilé des études internes de Facebook selon lesquelles 13,5 % des adolescentes au Royaume-Uni avaient constaté un accroissement de leurs pensées suicidaires après s’être inscrites sur Instagram et 17 % avaient vu leurs troubles alimentaires augmenter. Instagram a contribué à empirer la situation de 32 % des filles qui ont des problèmes d’image corporelle. Aux États-Unis, en octobre 2023, 33 États ont intenté une poursuite contre Instagram et Meta pour avoir délibérément induit une dépendance à leur plateforme tout en étant conscients des dommages potentiels.

Un désastre environnemental

L’impact environnemental de ce nouveau stade de développement du capitalisme est largement absent du débat public alors que sa croissance fulgurante a des conséquences majeures en matière de pollution et, surtout, de consommation de ressources naturelles et énergétiques. Bien qu’il soit le nouveau carburant d’une croissance incompatible avec la résolution de la crise climatique, il est plutôt présenté à la population comme une économie de l’immatériel relativement inoffensive.

Un simple courriel avec une pièce jointe peut laisser une empreinte carbone d’une vingtaine de grammes. La transmission de vidéos est encore plus énergivore. Le cas extrême du clip Gangnam Style du chanteur sud-coréen Psy, visionné 1,7 milliard de fois par an, équivaut à la consommation annuelle d’une ville française de 60 000 personnes[5]. La production et la transmission boulimiques de données engendrent une consommation d’énergie faramineuse qui représenterait 10 % de l’énergie électrique de la planète[6]. Cette production de données est en croissance exponentielle. Elle est multipliée par quatre tous les cinq ans[7] et la production projetée pour 2035 est d’environ 50 fois celle de 2020, soit 2142 zettaoctets[8]. La discussion sur les systèmes d’intelligence artificielle (IA) comme ChatGPT néglige le coût énergétique de ces outils. L’utilisation d’algorithmes comme Bard, Bing ou ChatGPT dans des requêtes de recherche multiplierait par dix l’empreinte carbone des recherches.

Cette croissance sans limites du stockage et de la transmission de données et l’utilisation d’algorithmes de plus en plus puissants pour les traiter entrainent une explosion des infrastructures telles que la 5G[9] et des centres de données et de calculs gigantesques. L’obsolescence programmée des appareils augmente d’autant la consommation de matières premières comme les métaux rares, ce qui a des effets désastreux sur l’environnement. La croissance illimitée du numérique est un obstacle à la décarbonation de l’économie et à la sortie de la crise climatique, crise qui menace le droit à la santé, à l’alimentation, au logement et même à la survie de millions de personnes.

Surveillance étatique et policière

La masse de données que le capitalisme de surveillance a produites à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et d’un maintien de l’ordre prédictif[10].

En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la National Security Agency (NSA) des États-Unis et la puissance des outils qui lui donnent accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube et Apple. Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada. La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignement et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opérations numériques qui analysent en temps réel toutes les informations disponibles pour diriger les interventions de la police sur le terrain[11]. Les informations traitées proviennent autant des banques de données des services de police que des images des caméras de surveillance publiques et privées ainsi que des informations extraites des réseaux sociaux par des logiciels. Les banques de données des forces policières contiennent des données sur des citoyennes et des citoyens qui n’ont jamais été condamnés pour un quelconque crime, données issues d’interpellations fondées sur le profilage racial, social ou politique.

Maintien de l’ordre prédictif

Les forces policières ont de plus en plus recours à des systèmes de décisions automatisés (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire ou les individus susceptibles d’en commettre. Ces systèmes de maintien de l’ordre prédictif sont alimentés de données qui renforcent une tendance à la répression de certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes : « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincus que nos outils sont non seulement scientifiques, mais également justes[12] ». Les quartiers pauvres sont également ceux où l’on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les préjugés racistes des SDA et des interventions policières.

Le rôle des entreprises privées

Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir qui ont des liens avec l’armée et les agences de renseignement et d’espionnage. Des compagnies comme Stingray fabriquent du matériel qui permet aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usagère ou l’usager et même d’accéder au contenu de la communication. Le logiciel Pegasus de la compagnie israélienne NSO, qui permet de prendre le contrôle d’un téléphone, a été utilisé par des gouvernements pour espionner des militantes et militants ainsi que des opposantes et opposants. D’autres entreprises comme Clearview AI et Amazon fournissent des données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la protection de la vie privée du Canada a déclaré illégales les actions de Clearview AI ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC).

La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Selon une étude de l’American Civil Liberties Union (ACLU), cette compagnie entretient une relation de promiscuité avec les forces policières et les agences de renseignement allant jusqu’à partager les informations sur ses utilisatrices et utilisateurs et à conclure des contrats confidentiels avec ces agences[13].

Le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières aux États-Unis. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usagère ou l’usager d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police. Environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras[14], le tout sans mandat judiciaire !

Tous ces développements se font sans débat public et sans transparence des forces policières. Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motif. Elles contournent également l’exigence d’un mandat judiciaire dans le cas des formes intrusives de surveillance. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier et de discrimination.

Le cadre légal qui gouverne la police doit être mis à jour de façon à protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.

Législation sur la protection de la vie privée au service du capital

Les premières lois de protection des renseignements personnels ont été adoptées dans les années 1980 et 1990. Afin de les adapter à l’ère numérique, particulièrement dans le contexte du développement de l’intelligence artificielle, l’Assemblée nationale adoptait la Loi 25, sanctionnée le 22 septembre 2021[15].

Bien que la Loi 25 comporte certaines avancées, notamment quant aux pouvoirs de la Commission d’accès à l’information (CAI) en cas de fuite de données, son objet principal consiste à libéraliser la communication et l’utilisation des données et à autoriser de multiples échanges de renseignements personnels entre ministères et organismes publics, le tout sans le consentement de la personne concernée.

La Loi 25 abolit le mécanisme de contrôle préalable de la CAI sur la communication de renseignements personnels sans le consentement de la personne concernée à des fins d’étude, de recherche ou de statistiques. On passe donc d’un régime d’autorisation à un régime d’autorégulation de la communication sans consentement de renseignements nominatifs possiblement très sensibles[16]. Un régime en partie similaire a été établi par la Loi 5 quant aux renseignements relatifs à la santé.

Le projet de loi 38[17], sanctionné le 6 décembre 2023, s’inscrit dans cette lignée. Les organismes publics, désignés comme source officielle de données numériques gouvernementales, n’auront plus à faire approuver par la CAI leurs règles de gouvernance des renseignements personnels. De plus, sur simple autorisation du gouvernement, des renseignements personnels détenus par l’État pourraient être utilisés sans consentement dans le cadre de projets pilotes, à de vagues fins d’étude, d’expérimentation ou d’innovation dans le domaine cybernétique ou numérique.

Les données que détiennent les organismes publics et les ministères constituent un bien collectif qui suscite la convoitise. En effet, les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de même que des entreprises pharmaceutiques et technologiques investissent de plus en plus le domaine médical. Les données confiées à des entreprises étatsuniennes sont assujetties au Cloud Act et au Patriot Act des États-Unis, quel que soit leur lieu physique d’hébergement. Pierre Fitzgibbon, aujourd’hui ministre de l’Économie, de l’Innovation et de l’Énergie, a qualifié en 2020 les données que détient la Régie de l’assurance maladie du Québec (RAMQ) de « mine d’or ». Il ajoutait : « La stratégie du gouvernement, c’est carrément de vouloir attirer les “pharmas”, quelques “pharmas”, à venir jouer dans nos platebandes, profiter de ça[18] ».

L’étude de l’Institut de recherche et d’informations socioéconomiques (IRIS) sur le financement octroyé par le gouvernement du Québec à l’IA en santé confirme la vision du ministre. L’étude démontre que les fonds publics sont alloués de manière disproportionnée à des projets de recherche menés en partenariat avec de jeunes pousses et des entreprises internationales du secteur pharmaceutique. Le rôle du réseau de la santé et des services sociaux consiste à fournir des données massives et le terrain d’expérimentation dont ces entreprises ont besoin pour développer leurs produits avant de pouvoir les commercialiser internationalement. Comme le souligne l’IRIS, « la multiplication des projets d’ouverture des données est directement liée à la pression pour développer le plus rapidement possible une industrie utilisant l’IA » et « les champs d’application de l’IA sont principalement centrés autour des marchés construits par l’industrie pharmaceutique et l’industrie du numérique[19] ». Ce sont des marchés qui favorisent une médecine de pointe individualisée, la multiplication des tests diagnostiques et une surutilisation de l’imagerie médicale, une médecine curative coûteuse au détriment d’une médecine préventive qui s’attaque aux problèmes de santé de la population. Cette orientation est intrinsèquement discriminatoire. La médecine de pointe bénéficie principalement aux couches aisées de la population, alors qu’elle sous-finance les soins de base et néglige les déterminants sociaux de la santé qui sont à la source des problèmes de santé des plus pauvres.

Pouvoir algorithmique, discrimination et exclusion

Le capitalisme algorithmique ne se contente pas d’envahir le champ des données comportementales des individus à des fins commerciales. Il cherche à pénétrer toutes les sphères d’activités ainsi que les institutions publiques et à imposer une gouvernance algorithmique qui sert ses intérêts. Selon Jonathan Durand Folco et Jonathan Martineau, « La régulation algorithmique comprend un ensemble de savoirs et de dispositifs permettant de représenter la réalité sociale par la collecte et l’analyse de données massives, de diriger des contextes d’interaction par l’instauration de règles, normes et systèmes de classification opérés par les algorithmes, et d’intervenir plus ou moins directement pour modifier les comportements des individus[20] ».

Les systèmes de décision automatisés (SDA) qui reposent sur l’IA sont maintenant utilisés pour décider qui aura accès à un prêt hypothécaire, qui sera éligible à une assurance. Aux États-Unis, les SDA sont même utilisés pour décider qui sera admis à l’université et quelle détenue ou détenu aura droit à une libération conditionnelle. Le jugement humain est de plus en plus écarté du processus de prise de décision. Les algorithmes derrière ces systèmes sont entrainés à partir de compilations massives de données sociétales qui reflètent les préjugés historiques de nos sociétés envers les femmes, les Autochtones, les minorités sexuelles et de genre, les personnes racisées et marginalisées, et perpétuent ainsi les discriminations. Ces SDA sont complexes et protégés par les droits de propriété intellectuelle. Leur fonctionnement opaque ne fait pas l’objet d’un examen public indépendant. Les personnes peuvent difficilement en appeler des décisions injustes dont elles sont victimes.

L’utilisation de ces systèmes implique que les individus doivent dorénavant transiger avec les institutions publiques et les entreprises au moyen d’outils informatiques que toutes et tous ne possèdent pas ou ne maitrisent pas. La vie numérique renforce les exclusions déjà effectives. Plusieurs revendications sont mises de l’avant pour contrer ces atteintes au droit à l’égalité : possibilité de refuser un traitement automatisé, possibilité de connaitre les raisons d’une décision et d’en appeler, obligation de transparence quant au fonctionnement des SDA.

Le défi…

Nous sommes au tout début de la prise de conscience du capitalisme de surveillance et de ses effets. Comme on le constate, le développement de ce nouveau capitalisme soulève de nombreux enjeux de droits qui dépassent le seul droit à la vie privée. La surveillance et la manipulation des comportements sont des atteintes à l’autonomie des individus, à la vie démocratique et au droit à l’information. Le manque de transparence dans la collecte de données et les systèmes de décision automatisés qui servent à la prise de décision sont source de discrimination et accentuent le déséquilibre de pouvoir entre les individus d’une part, les géants du numérique et les gouvernements d’autre part. Les phénomènes de dépendance et l’impact environnemental du capitalisme de surveillance portent atteinte au droit à la santé et à un environnement sain.

À ses débuts, dans les années 1990, Internet était source d’espoir. Il allait briser le monopole des grands médias traditionnels, écrits et électroniques sur le débat public et permettre à des voix qui n’avaient pas accès à ces moyens de se faire entendre et de s’organiser. Cet espoir n’était pas sans fondement et Internet a effectivement permis à de nombreux mouvements sociaux (MeToo, Black Lives Matter, la campagne pour l’abolition des mines antipersonnel…) de se développer à une échelle mondiale et d’avoir une portée. Les réseaux sociaux permettent de diffuser et de dénoncer en temps réel les violations des droits aux quatre coins de la planète. On a aussi vu comment ces moyens de communication pouvaient être utiles en temps de pandémie. Cela ne doit toutefois pas nous faire perdre de vue que, si nous n’intervenons pas, le développement du numérique sous la gouverne du capitalisme de surveillance comporte de graves dangers pour les droits humains.

Un chantier de réflexion s’impose sur cette nouvelle économie des données, de même que sur l’approche consistant à définir les données collectives comme une propriété commune devant être juridiquement et économiquement socialisée. Nous devons pouvoir mettre ce nouvel univers numérique et de communication ainsi que l’IA au service du bien commun. Le défi des prochaines années consiste à se réapproprier ces outils numériques afin de les rendre socialement utiles. Le capitalisme de surveillance n’est pas une fatalité !

Par Dominique Peschard, Comité surveillance des populations, IA et droits humains de la Ligue des droits et libertés


  1. Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  2. Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, Montréal, Écosociété, 2023.
  3. Jen Caltrider, Misha Rykov et Zoë MacDonald, Mozilla, It’s official : cars are the worst product category we have ever reviewed for privacy, Fondation Mozilla, 6 septembre 2023.
  4. Bobby Allyn, Here are 4 key points from the Facebook whistleblower’s testimony on Capitol Hill, National Public Radio, 5 octobre 2021.
  5. Institut Sapiens, Paris, cité dans Guillaume Pitron, L’enfer numérique. Voyage au bout d’un like, Paris, Les liens qui libèrent, 2021, p. 168.
  6. Pitron, ibid.
  7. Pitron, ibid., p. 334.
  8. Un zettaoctets = 1020 octets.
  9. NDLR. La 5G est la cinquième génération de réseaux de téléphonie mobile. Elle succède à la quatrième génération, appelée 4G, et propose des débits plus importants ainsi qu’une latence fortement réduite.
  10. Un système conçu pour prédire nos comportements à partir de l’utilisation de données.
  11. Martin Lukacs, « Canadian police expanding surveillance powers via new digital “operations centres” », The Breach, 13 janvier 2022.

  12. Cathy O’Neil et Cédric Villani, Algorithmes. La bombe à retardement, Paris, Les Arènes, 2020, p. 144.
  13. Emiliano Falcon-Morano, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure, American Civil Liberties Union (ACLU), 18 juin 2021.
  14. Lauren Bridges, « Amazon Ring’s is the largest civilian surveillance network the US has ever seen », The Guardian, 18 mai 2021.
  15. NDLR. La Loi 25 désigne certaines dispositions de la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels dans le secteur privé.
  16. Anne Pineau, « Le capitalisme de surveillance peut dormir tranquille! », Droits et libertés, vol. 39, n°  2, 2020.
  17. Devenu la Loi modifiant la Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement et d’autres dispositions législatives.
  18. Marie-Michèle Sioui, « Québec veut attirer les pharmaceutiques avec les données de la RAMQ », Le Devoir, 21 août 2020.
  19. Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec, Montréal, IRIS, 2023.
  20. Durand Folco et Martineau, op. cit., p. 201.

 

Quelques leçons féministes marxistes pour penser l’intelligence artificielle autrement

23 mai, par Rédaction

Dès le début, les féministes marxistes qui voulaient une émancipation féministe et antiraciste se sont heurtées aux limites que représentaient les contre-propositions socialistes au régime capitaliste. Plus tard, elles ont aussi dû considérer des courants anti-technologiques qui tendaient à essentialiser le lien des femmes à la nature. Ces réflexions se sont consolidées dans le courant théorique de la reproduction sociale. Dans le présent texte, je reviens sur certains des travaux qui en sont issus afin d’envisager d’autres voies aux technologies d’intelligence artificielle (IA) qui dévalorisent le travail reproductif. Ils permettent de critiquer simultanément le rôle des technologies dans la précarisation des activités de soin tout en ne masquant pas les insuccès de leur contrôle par l’État. J’illustrerai ces avenues à partir des propositions que j’ai formulées dans le cadre d’une étude publiée par l’Institut de recherche et d’informations socioéconomiques (IRIS) qui explorait les conditions de production de l’IA dans le secteur de la santé[1]. J’envisagerai de quelle manière, en se référant aux théories de la reproduction sociale, on pourrait penser et produire des innovations respectant les objectifs de réduction des inégalités en santé dans le réseau public.

Le numérique comme vecteur de marchandisation

Dès les années 1970, les théories de la reproduction sociale ont traité de l’organisation du travail en usine, de la bombe atomique et même des ordinateurs. Plus récemment, les travaux sur les biotechnologies ont ramené cet horizon théorique à l’avant-plan. Dans son plus récent ouvrage, Silvia Federici, figure de proue de ce courant, offre une courte réflexion sur les nouvelles technologies numériques et les robots de soins. Elle affirme : « Les techniques – et plus particulièrement les techniques de communication – jouent incontestablement un rôle dans l’organisation des tâches domestiques et constituent aujourd’hui un élément essentiel de notre vie quotidienne[2] ». À l’image d’autres marxistes avant elle, Federici voit les technologies de communication comme des moyens de production, à la différence qu’elles s’intègrent directement dans l’organisation du travail reproductif. Celui-ci est considéré comme l’envers du travail productif. Sa dévalorisation systématique est l’une des clés de voûte de l’organisation de l’exploitation capitaliste. Il comprend des activités comme préparer les repas, s’occuper des personnes vulnérables ou assurer le maintien des relations affectives. Pour Federici, les technologies de communication sont des outils de travail parce qu’elles sont mobilisées dans le cadre de ces activités économiques essentielles de reproduction matérielle et sociale de la vie humaine même si elles sont souvent peu ou pas rémunérées.

Sarah Sharma, une autrice qui s’intéresse aux enjeux de genre et de race liés à la valorisation du temps, accorde elle aussi un rôle économique au numérique dans le cadre du travail reproductif. Dans un essai sur l’économie de plateforme[3], elle s’attarde à TaskRabbit, une application mobile qui organise très précisément la vie quotidienne. Celle-ci permet de déléguer l’exécution de certaines tâches ordinaires à des inconnu·e·s, moyennant rémunération. Les utilisateurs/employeurs affichent en ligne de menus travaux à faire comme aller chercher un objet acheté sur la plateforme d’échange MarketPlace, promener le chien ou aller nettoyer les planchers avant une réception. Historiquement, ce type de travail a été inégalement réparti au sein des ménages. Il tend désormais à être externalisé vers des personnes socioéconomiquement précaires qui sont, de manière croissante, des personnes racisées. Grâce à des technologies de communication comme TaskRabbit, certains groupes favorisés se délestent de l’ennui et du stress qui accompagnent la réalisation de tâches socialement dévalorisées. Ils en profitent pour vivre, selon les mots utilisés par la compagnie, « la vie qu’ils devraient vivre » :

TaskRabbit accomplit le travail, mais vous sauve aussi d’une dépendance envers autrui en dehors d’un échange économique. L’application vous met en relation avec des groupes de personnes pour qui le travail domestique n’est pas si ennuyant[4].

Ils laissent à d’autres cette vie à ne pas vivre. Dans des cas de ce type, les technologies participent à la marchandisation des tâches reproductives. Elles remplacent la figure de la ménagère par celle du tâcheron enthousiaste et flexible. La pensée de la reproduction sociale sur les technologies ne s’arrête cependant pas à leur capacité d’externalisation du travail reproductif.

Données, logique productive et économie spéculative

Les années 1990 ont été marquées par l’implantation de techniques visant à quantifier et à mesurer le travail d’exécution des soins de santé. Ce faisant, ce type de tâche reliée à la sphère reproductive devait respecter une logique productive qui implique de pouvoir calculer le plus précisément possible le rapport entre les intrants et les extrants du processus de production. Dans le cas des services publics, l’objectif consiste à augmenter l’efficience de la production. La manifestation la plus concrète de cette vision a probablement été le déploiement des méthodes de la nouvelle gestion publique, désormais appuyées par des technologies capables de capter et d’analyser des quantités monstrueuses de données. Cette quantification extrême des données est portée par le fantasme de surmonter l’improductivité d’activités comme le soin des personnes en rationalisant leur caractère intuitif et affectif. Encore aujourd’hui, la volonté de quantifier le produit des soins persiste, mais demeure un défi inachevé.

Pourtant, cette ambition n’est pas nouvelle. Dès les années 1970, les théoriciennes féministes ont examiné cette volonté de rationalisation du reproductif. Elles ont élaboré leur critique à partir du concept d’« usinification » de la reproduction. Alors que l’usine est associée à la domination d’intérêts marchands, la critique de l’usinification de la reproduction formulée par Nicole Cox et Silvia Federici[5] ne porte pas sur la privatisation de la reproduction, au contraire. Elle vise directement l’étatisation de certains services jusqu’alors offerts par les femmes. En effet, l’État est l’acteur central de la « mise en usine » de la reproduction. Dans la pensée socialiste de l’époque, la production industrielle, une fois retirée du contrôle bourgeois, représente un progrès. Après tout, elle résulte d’une collectivisation des moyens de production. La coopération dans le processus de travail augmente l’efficacité et réduit la quantité de travail socialement nécessaire pour assurer la survie des humains. La machine matérialise l’espoir de la fin du labeur physique dur et répétitif. Qui ou quoi exécute la tâche n’a réellement d’importance. Qu’il soit atteint par une machine ou par un humain, le résultat est le même. Dans la pensée socialiste, la même logique peut s’appliquer à toutes les tâches, dont les tâches reproductives.

La robotisation de certaines tâches ménagères n’est pas complètement loufoque. Le lave-vaisselle en est bien la preuve. Cependant, la robotisation de certaines tâches domestiques parait absurde pour celles qui les exécutent. Comment mécaniser « l’action de donner le bain à un enfant, de le câliner, de le consoler, de l’habiller et de lui donner à manger, de fournir des services sexuels ou d’aider les malades et les personnes âgées dépendantes[6]? » demande Federici. Pour elle, non seulement la mécanisation de ce travail de nature relationnelle est peu probable, mais elle ne représente pas un horizon post-capitaliste désirable. En effet, la collectivisation et la rationalisation de la reproduction signifient de soumettre davantage ce travail aux pressions de la performance mesurable. L’usinification du travail reproductif signifie qu’il se plie à une vision machinique du travail qui évacue la spécificité des tâches reproductives pour faire dominer la mesure et l’efficacité.

Pour les féministes de la reproduction, la collectivisation du travail reproductif par l’État n’a jamais constitué une voie d’émancipation. Dans la pensée socialiste, le travail reproductif est rétrograde et obsolète, ce qui constitue un problème majeur. Son étatisation a pour objectif de contrer son inefficacité, sans tenir compte de ses qualités non productives. En cela, ces théoriciennes se sont distinguées très tôt des autres marxistes : la répartition de la richesse ne constitue pas le problème fondamental du capitalisme. Pour éliminer les formes de domination imposées par le capitalisme, il faut selon elles abolir son mode de fonctionnement qui dévalue fondamentalement tout ce qui ne se plie pas à la rationalité productive. Cette vision industrielle des soins a aussi été appliquée dans des pays non socialistes. C’est le cas par exemple des centres d’hébergement de soins de longue durée (CHSLD) qui représentent désormais l’antithèse d’un lieu de vie épanouissant pour les personnes âgées et dont le modèle s’est révélé absurde durant la pandémie de COVID-19.

Les expériences japonaises d’intégration de robots pour les soins aux ainés démontrent que pour assumer les coûts élevés d’acquisition, les établissements de soins doivent être de grande taille et très standardisés[7]. Le travail humain, lui, ne diminue pas, mais il devient plus routinier. Si l’avenir politique des soins est celui des robots et d’une intelligence artificielle pensée comme pour une usine, cet avenir sera celui de mégastructures industrielles de soins. L’intégration actuelle des machines respecte la logique productive appliquée à l’organisation des soins. Si cette logique continue de dominer la façon de penser et d’intégrer l’IA, cette technologie dévalorisera les activités reproductives, qu’elles soient soumises à l’échange marchand ou qu’elles soient produites par l’État.

Valorisation des savoirs reproductifs

Avec le développement de l’intelligence artificielle, on peut constater une modification du rapport entre sphère productive et sphère reproductive. La tendance historique vise à dépasser l’improductivité du champ reproductif, soit en intégrant ses activités dans le circuit marchand, soit en les rationalisant de façon à les plier à la logique de production. Désormais, ces tentatives sont exacerbées par l’émergence d’une industrie des données ancrée dans une économie spéculative. Des entreprises comme TaskRabbit ne font pas qu’offrir des services. Leur modèle d’affaires repose en majeure partie sur la promesse de revenus futurs décuplés. Elles doivent croitre rapidement afin d’attirer l’attention d’une masse critique d’investisseurs. Elles seront ensuite acquises par une plus grande corporation ou, plus rarement, elles feront leur entrée sur le marché boursier. Par exemple, après avoir récolté près de 50 millions de dollars d’investissements privés en six ans, TaskRabbit a été rachetée par IKEA. L’entreprise offre désormais des services d’assemblage de ses meubles vendus en pièces détachées sans avoir à s’encombrer de la responsabilité d’être un employeur. Alors que le travail industriel de montage a été délocalisé à l’intérieur des foyers individuels pour être accompli gratuitement, celui-ci redevient rémunéré, mais très précaire.

Dans le secteur de la santé, un champ d’activités plus près de la sphère de la reproduction que le montage de mobilier, j’ai pu observer un foisonnement de nouvelles entreprises qui profitent d’un accès privilégié aux institutions publiques de santé pour commercialiser des technologies d’IA destinées au marché international. Le système public de santé sert de terrain de mise au point et d’expérimentation de produits. Cette exploitation des activités de soins outrepasse leurs limites productives en ne cherchant pas à agir directement sur elles. Or, bien qu’elles ne participent pas de prime abord à marchandiser ou à « usinifier » les soins, ces technologies pourraient avoir une incidence sur leur orientation. Déjà, on voit un accroissement des approches médicales axées sur les traitements complexes et invasifs. On observe une adéquation entre le développement de l’IA et les priorités des géants pharmaceutiques. Les ressources sont orientées vers la production de technologies hyperspécialisées en oncologie ou en génétique. Pourtant, la recherche montre que des politiques orientées vers des investissements massifs dans des traitements curatifs sont inefficaces du point de vue de la santé publique. Des actions préventives axées sur l’environnement ou le logement le sont significativement plus. C’est une vision de l’efficacité que ceux qui sont à l’origine des initiatives en IA en santé ne partagent pas.

Mesurer sobrement

Serait-il possible d’intégrer des technologies comme l’IA dans l’organisation des soins de santé sans procéder à une hyperrationalisation congruente à la logique de la sphère productive ? Une posture prudente reste de mise face à ces technologies qui quantifient, mesurent, analysent et dirigent la prise de décision de façon schématique. Cela est d’autant plus vrai qu’actuellement les structures organisationnelles complexes et hiérarchiques des régimes publics se révèlent avides de données. Elles exercent aussi une surveillance accrue des travailleuses et des travailleurs. Sachant que l’accumulation des dispositifs alourdit le travail et entraine toujours des résistances qui peuvent se solder par du désistement face à la perte du sens au quotidien, les technologies doivent éviter d’attiser une soif insatiable de données quantitatives.

Par ailleurs, une collecte extensive de données pourrait aussi nuire à la relation de soins, en particulier celle avec des personnes qui vivent des situations de marginalité ou qui sont criminalisées. Pour ces dernières, la relation interpersonnelle de confiance est fondée sur la confidentialité. Au printemps 2023, une nouvelle loi a été adoptée pour favoriser la circulation des données des patientes et patients du Québec. Plusieurs ordres professionnels ont publiquement dénoncé de nombreuses dispositions qui mettent à mal le secret professionnel. Ceux-ci craignent que certains patients puissent refuser des soins ou évitent de livrer les informations essentielles à une intervention professionnelle réussie par peur de s’exposer à d’autres regards.

Des principes de sobriété technologique et de sobriété quant à la quantité de données constituent des priorités pour éviter une approche surrationalisante, prête à tout pour réduire les actes reproductifs à des entités comparables. Cette sobriété permettrait de freiner les ambitions économiques qui accompagnent la montée de la production de données depuis déjà plus de 10 ans.

Pour un autre contrôle des outils

Rejeter en bloc l’adoption de technologies ou de savoirs contemporains soulève néanmoins deux problèmes majeurs. D’abord, cette posture est façonnée par le déterminisme technologique. Elle ne prend pas en compte le fait que l’usage d’une même technologie peut varier selon les intérêts qui contrôlent sa production ou ses infrastructures. Ensuite, une opposition catégorique participe à la naturalisation du travail reproductif. L’anthropologue féministe marxiste Paola Tabet soutient que la dévalorisation du travail des femmes, et la dévalorisation des femmes elles-mêmes, se sont construites par le contrôle masculin des outils techniques spécialisés[8]. En ne pouvant pas créer les outils performants par et pour elles-mêmes, elles ont été astreintes à des tâches inutilement harassantes. Ce faisant, certains travaux considérés comme typiquement féminins ont aussi été connotés comme plus naturels. Exclure des technologies sous prétexte qu’elles ne respecteraient pas l’essence de la sphère reproductive perpétuerait la division sexuelle du travail par les outils.

Ainsi, il faut faire le pari que l’IA n’est pas foncièrement en opposition aux soins de santé, mais qu’elle ne doit pas être contrôlée par des intérêts étrangers aux soins. En sortant son développement du circuit marchand de la spéculation pour remettre la prise de décision de ses orientations dans les mains de celles et ceux qui sont au plus près des activités de soins, la production de l’IA pourrait correspondre à une conception radicalement différente.

Bientôt, les besoins en soins à domicile et la privatisation des services en cours depuis vingt ans s’accéléreront probablement. Les plateformes de type Uber centrées sur les soins à domicile risquent alors de devenir d’usage commun. Le discours promotionnel se fera autour des capacités algorithmiques de la prédiction des besoins, de l’optimisation des trajets et de l’établissement de prix concurrentiels. Malgré la demande, ce type de plateforme n’améliorera pas les conditions d’exercice du travail de soin. Pourtant, il sera quand même possible de trouver des personnes pour qui sortir un grand-père malade du lit ne sera « pas ennuyant » parce que cela lui permet de gagner sa vie. De quoi pourrait avoir l’air une telle plateforme si le contrôle de l’organisation du travail était laissé aux mains des bénéficiaires et des travailleuses et travailleurs au sein d’un système public ? Pourrait-elle, dans de bonnes conditions structurelles, soutenir une démarche de valorisation du reproductif ? Ces questions exigent des expérimentations pour y répondre. Pour que les technologies ne soient pas seulement au service de ceux et celles qui ont le luxe de « vivre la vie qu’ils devraient vivre », une réflexion profonde sur le temps de travail et le rapport aux tâches relationnelles s’imposera inévitablement.

Par Myriam Lavoie-Moore, chercheuse à l’IRIS et professeure adjointe à l’École de communications sociales de l’Université Saint-Paul


  1. Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, 2023.
  2. Silvia Federici, Réenchanter le monde. Le féminisme et la politique des communs, Genève/Paris, Entremonde, 2022, p. 258.
  3. Sarah Sharma, « TaskRabbit : the gig economy and finding time to care less », dans Jeremy Wade Morris et Sarah Murray  (dir.), Appified. Culture in the Age of Apps, Ann Arbor, University of Michigan Press, 2018.
  4. Ibid.p. 64. Ma traduction.
  5. Nicole Fox et Silvia Federici, Counter-Planning from the Kitchen : Wages for Housework, a Perspective on Capital and the Left, New York, New York Wages for Housework Committee et Bristol, Falling Wall Press, 1975.
  6. Silvia Federici, Le capitalisme patriarcal, Paris, La Fabrique, 2019, p. 94.
  7. James Wright, « Inside Japan’s long experiment in automating elder care », MIT Technology Review, 9 janvier 2023.
  8. Paola Tabet, Les doigts coupés. Une anthropologie féministe, Paris, La Dispute, 2018.

 

La privation de monde face à l’accélération technocapitaliste

7 mai, par Rédaction

La pandémie de COVID-19 a conduit à un déploiement sans précédent de l’enseignement à distance (EAD), une tendance qui s’est maintenue par la suite, et cela malgré les nombreux impacts négatifs observés. De plus, le développement rapide des intelligences artificielles (IA) dites « conversationnelles » de type ChatGPT a provoqué une onde de choc dans le monde de l’éducation. La réaction des professeur·e·s à cette technologie de « disruption[1] » a été, en général, de chercher à contrer et à limiter l’usage de ces machines. Le discours idéologique dominant fait valoir, à l’inverse, qu’elles doivent être intégrées partout en enseignement, aussi bien dans l’élaboration d’une littératie de l’IA chez l’étudiant et l’étudiante que dans la pratique des professeur·e·s, par exemple pour élaborer les plans de cours. Nous allons ici chercher à montrer qu’au contraire aller dans une telle direction signifie accentuer des pathologies sociales, des formes d’aliénation et de déshumanisation et une privation de monde[2] qui va à l’opposé du projet d’autonomie individuelle et collective porté historiquement par le socialisme.

L’expérience à grande échelle de la pandémie

Les étudiantes, les étudiants et les professeur·e·s ont été les rats de laboratoire d’une expérimentation sans précédent du recours à l’EAD durant la pandémie de COVID-19. Par la suite, nombre de professeur·e·s ont exprimé des critiques traduisant un sentiment d’avoir perdu une relation fondamentale à leur métier et à leurs étudiants, lorsqu’ils étaient, par exemple, forcés de s’adresser à des écrans noirs à cause des caméras fermées lors des séances de visioconférence. Quant aux étudiantes et étudiants, 94 % d’entre eux ont rapporté ne pas vouloir retourner à l’enseignement en ligne[3]. Des études ont relevé de nombreuses répercussions négatives de l’exposition excessive aux écrans durant la pandémie sur la santé mentale[4] : problèmes d’anxiété, de dépression, d’isolement social, idées suicidaires.

Le retour en classe a permis de constater des problèmes de maitrise des contenus enseignés (sur le plan des compétences en lecture, en écriture, etc.) ainsi que des problèmes dans le développement de l’autonomie et de la capacité de s’organiser par rapport à des objets élémentaires comme ne pas arriver à l’école en pyjama, la ponctualité, l’organisation d’un calendrier, la capacité à se situer dans l’espace ou à faire la différence entre l’espace privé-domestique et l’espace public, etc.

D’autres études ont relevé, au-delà de la seule pandémie, des problèmes de développement psychologique, émotionnel et socioaffectif aussi bien que des problèmes neurologiques chez les jeunes trop exposés aux écrans. Une autrice comme Sherry Turkle par exemple note une perte de la capacité à soutenir le regard d’autrui, une réduction de l’empathie, de la socialité et de la capacité à entrer en relation ou à socialiser avec les autres.

Tout cela peut être résumé en disant qu’il y a de nombreux risques ou effets négatifs de l’extension des écrans dans l’enseignement sur le plan psychologique, pédagogique, développemental, social, relationnel. Le tout est assorti d’une perte ou d’une déshumanisation qui affecte la relation pédagogique de transmission en chair et en os et en face à face au sein d’une communauté d’apprentissage qui est aussi et d’abord un milieu de vie concret. Cette relation est au fondement de l’enseignement depuis des siècles; voici maintenant qu’elle est remplacée par le fantasme capitaliste et patronal d’une extension généralisée de l’EAD. Or, il est fascinant de constater qu’aucun des risques ou dangers documentés et évoqués plus haut n’a ralenti le projet des dominants, puisqu’à la suite de la pandémie, les pressions en faveur de l’EAD ont continué à augmenter. À L’UQAM, par exemple, les cours en ligne étaient une affaire « nichée » autrefois; après la pandémie, on en trouve plus de 800. L’extension de l’EAD était aussi une importante demande patronale au cœur des négociations de la convention collective dans les cégeps en 2023, par exemple. Il sera maintenant possible pour les collèges de procéder à l’expérimentation de projets d’EAD même à l’enseignement régulier !

Une société du « tele-everything »

Toute la question est de savoir pourquoi la fuite en avant vers l’EAD continue malgré les nombreux signaux d’alarme qui s’allument quant à ses répercussions négatives. Une partie de la réponse se trouve dans le fait que l’EAD s’inscrit dans un projet politique ou dans une transformation sociale plus large. Comme l’a bien montré Naomi Klein[5], la pandémie de COVID-19 a été l’occasion pour les entreprises du capitalisme de plateforme ou les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de déployer le projet d’une société du « tele-everything » où tout se ferait désormais à distance grâce à une infrastructure numérique d’une ampleur sans précédent. Cela signifie non seulement un monde avec beaucoup moins d’enseignantes et d’enseignants, puisque les cours seront donnés en ligne ou éventuellement par des tuteurs-robots, mais cela concerne aussi un ensemble d’autres métiers dont les tâches sont d’ordre cognitif, puisqu’il s’agit précisément d’automatiser des tâches cognitives autrefois accomplies par l’humain. De nombreux métiers sont donc menacés : journaliste, avocat, médecin, etc. Désormais chacun pourra accéder, par exemple, au téléenseignement, à la télémédecine, au divertissement par la médiation d’un écran et depuis son foyer. Nous pouvons donc parler d’un projet politique visant à transformer profondément les rapports sociaux au moyen de l’extension d’un modèle de société technocapitaliste ou capitaliste cybernétique intercalant la médiation des écrans et de la technologie entre les sujets.

Vers une société cybernétique

Nous pouvons, en nous appuyant sur des philosophes comme le Québécois Michel Freitag ou le Français Bernard Stiegler, relever que la société moderne était caractérisée par la mise en place de médiations politico-institutionnelles devant, en principe, permettre une prise en charge réfléchie des sociétés par elles-mêmes. Plutôt que de subir des formes d’hétéronomie culturelles, religieuses ou politiques, les sociétés modernes, à travers leurs institutions que l’on pourrait appeler « républicaines », allaient faire un usage public de la raison et pratiquer une forme d’autonomie collective : littéralement auto-nomos, se donner à soi-même sa loi. La condition de cette autonomie collective est d’abord, bien entendu, que les citoyennes et citoyens soient capables d’exercer leur raison et leur autonomie individuelle, notamment grâce à une éducation qui les ferait passer du statut de mineur à majeur. Le processus du devenir-adulte implique aussi d’abandonner le seul principe de plaisir ou le jeu de l’enfance pour intégrer le principe de réalité qu’implique la participation à un monde commun dont la communauté politique a la charge, un monde qui est irréductible au désir de l’individu et qui le transcende ou lui résiste dans sa consistance ou son objectivité symbolique et politique.

D’après Freitag, la société moderne a, dans les faits, été remplacée par une société postmoderne ou décisionnelle-opérationnelle, laquelle peut aussi être qualifiée de société capitaliste cybernétique ou systémique. Dans ce type de société, l’autonomie et les institutions politiques sont déclassées au profit de systèmes autonomes et automatiques à qui se trouve de plus en plus confiée la marche des anciennes sociétés. De toute manière, ces dernières sont de plus en plus appelées à se dissoudre dans le capitalisme, et donc à perdre leur spécificité culturelle, symbolique, institutionnelle et politique. Ces transformations conduisent vers une société postpolitique. Elles signifient que l’orientation ou la régulation de la pratique sociale ne relève plus de décisions politiques réfléchies, mais se voit déposée entre les mains de systèmes – le capitalisme, l’informatique, l’intelligence artificielle – réputés décider de manière plus efficace que les individus ou les collectivités humaines. Bref, c’est aux machines et aux systèmes qu’on demande de penser à notre place.

Les anciennes institutions d’enseignement se transforment en organisations calquées sur le fonctionnement et les finalités de l’entreprise capitaliste et appelées à s’arrimer aux « besoins du marché ». Plus les machines apprennent ou deviennent « intelligentes » à notre place, et plus l’enseignement est appelé, suivant l’idéologie dominante, à se placer à la remorque de ces machines. Désormais, la machine serait appelée à rédiger le plan de cours des professeur·e·s, à effectuer la recherche ou à rédiger le travail de l’étudiante ou de l’étudiant; elle pourra même, en bout de piste, corriger les copies, comme cela se pratique déjà en français au collège privé Sainte-Anne de Lachine. L’humain se trouve marginalisé ou évincé du processus, puisqu’il devient un auxiliaire de la machine, quand il n’est tout simplement pas remplacé par elle, comme dans le cas des tuteurs-robots ou des écoles sans professeurs, où l’ordinateur et le robot ont remplacé l’ancien maître. L’Organisation de coopération et de développement économiques (OCDE) évoque déjà dans ses rapports un monde où les classes et les écoles physiques auront tout bonnement disparu. Ce projet participe aussi d’un processus de délestage ou d’« extranéiation » cognitive qui est à rebours de la conception moderne de l’autonomie, et qu’il convient maintenant d’expliciter.

Délestage ou extranéiation cognitive

Le philosophe français Eric Sadin[6] estime qu’un seuil inquiétant est franchi à partir du moment où des facultés ou des tâches cognitives spécifiques à l’humain sont remises entre les mains de systèmes d’intelligence artificielle, par exemple l’exercice du jugement ou le fait de poser un diagnostic médical. Automatiser le chauffage d’une maison ou les lumières d’un immeuble de bureaux est beaucoup moins grave que de transférer le jugement humain dans un système extérieur. Certains intervenants et intervenantes du monde de l’éducation s’enthousiasment devant ce processus, estimant que le délestage cognitif en faveur des machines permettra de sauver du temps qui pourra être utilisé à de meilleures fins[7]. Il faut au contraire insister pour montrer que ce processus pousse la destruction de l’idéal du citoyen – ou de la citoyenne – moderne encore plus loin, puisque celui-ci est remplacé par un individu assisté ou dominé par la machine, réputée penser, juger ou décider à sa place. L’individu n’exerce plus alors la réflexivité, l’autonomie, la liberté : « il faut s’adapter », comme le dirait Barbara Stiegler.

Il est frappant de constater à quel point les technoenthousiastes prennent position sur les nouvelles technologies sans jamais se confronter à l’immense corpus de la philosophie de la technique ou la technocritique, ceci expliquant cela… La position technocritique est généralement ridiculisée en l’assimilant à quelque peur comique du changement semblable à la crainte des minijupes et du rock’n’roll dans les années 1950… Pourtant, les dangers relatifs à ce mouvement de délestage (Entlastung) ou d’extranéiation cognitive ont bien été relevés, et depuis longtemps, par les Arnold Gehlen, Günther Anders ou Michel Freitag, pour ne nommer que ceux-là.

Dès 1956, Anders développe dans L’Obsolescence de l’homme une critique du rapetissement de l’humain face à la puissance des machines. Le concept de « honte prométhéenne » désigne le sentiment d’infériorité de l’ouvrier intimidé par la puissance et la perfection de la machine qui l’a dépassé, lui, l’être organique imparfait et faillible. Le « décalage prométhéen » indique quant à lui l’écart qui existe entre la puissance et les dégâts causés par les machines d’un côté, et la capacité que nous avons de les comprendre, de nous les représenter et de les ressentir de l’autre. Les machines sont donc « en avance » sur l’humain, placé à la remorque de ses productions, diminué et du reste en retard, largué, dépassé par elles.

Anders rapporte un événement singulier qui s’est déroulé à la fin de la guerre de Corée. L’armée américaine a gavé un ordinateur de toutes les données, économiques, militaires, etc., relatives à la poursuite de la guerre avant de demander à la machine s’il valait la peine de poursuivre ou d’arrêter l’offensive. Heureusement, la machine, après quelques calculs, a tranché qu’il valait mieux cesser les hostilités. On a conséquemment mis un terme à la guerre. D’après Anders, c’est la première fois de l’histoire où l’humain s’est déchargé d’une décision aussi capitale pour s’en remettre plutôt à une machine. On peut dire qu’à partir de ce moment, l’humanité concède qu’elle est dépassée par la capacité de synthèse de la machine, avec ses supports mémoriels et sa vitesse de calcul supérieure – supraliminaire, dirait Anders, puisque débordant notre propre capacité de compréhension et nos propres sens. Selon la pensée cybernétique[8] qui se développera dans l’après-guerre, s’il s’avère que la machine exécute mieux certaines opérations, il vaut mieux se décharger, se délester, « extranéiser » ces opérations dans les systèmes. La machine est réputée plus fiable que l’humain.

Évidemment, à l’époque, nous avions affaire aux balbutiements de l’informatique et de la cybernétique. Aujourd’hui, à l’ère du développement effréné de l’intelligence artificielle et de la « quatrième révolution industrielle », nous sommes encore plus en danger de voir une part croissante des activités, orientations ou décisions être « déchargées » de l’esprit humain en direction des systèmes cybernétiques devenus les pilotes automatiques du monde. Il faut mesurer à quel point cela est doublement grave.

D’abord, du point de vue de l’éducation qui devait fabriquer le citoyen et la citoyenne dont la république avait besoin, et qui produira à la place un assisté mental dont l’action se limitera à donner l’input d’un « prompt[9]» et à recevoir l’output de la machine. Un étudiant qui fait un travail sur Napoléon en demandant à ChatGPT d’exécuter l’ensemble des opérations n’aura, finalement, rien appris ni rien compris. Mais il semble que cela n’est pas très grave et que l’enseignement doit aujourd’hui se réinventer en insistant davantage sur les aptitudes nécessaires pour écrire des prompts bien formulés ou en mettant en garde les étudiantes et étudiants contre les « hallucinations », les fabulations mensongères fréquentes des machines qui ont désormais pris le contrôle. « Que voulez-vous, elles sont là pour rester, nous n’avons pas le choix de nous adapter… », nous dit-on du côté de ceux qui choisissent de garnir les chaines de l’ignorance des fleurs de la « créativité », car c’est bien de cela qu’il s’agit : l’enseignement de l’ignorance comme l’a écrit Michéa[10], le décalage prométhéen comme programme éducatif et politique.

Deuxièmement, ce mouvement de déchargement vers la machine vient entièrement exploser l’idéal d’autonomie moderne individuelle et collective et réintroduire une forme d’hétéronomie : celle du capitalisme cybernétique autonomisé. Comme le remarque Bernard Stiegler, le passage du statut de mineur à celui de majeur, donc le devenir-adulte, est annulé : l’individu est maintenu au stade infantile et pulsionnel, puis branché directement sur la machine et le capital. Il y a donc complicité entre l’individu-tyran et le système une fois court-circuitées les anciennes médiations symboliques et politiques de l’ancienne société. Suivant une thèse déjà développée dans le néolibéralisme de Friedrich Hayek, notre monde serait, du reste, devenu trop complexe pour être compris par les individus ou orienté par la délibération politique : il faut donc confier au marché et aux machines informatiques/communicationnelles le soin de devenir le lieu de synthèse et de décision de la société à la place de la réflexivité politique. Or, ce système est caractérisé, comme le disait Freitag, par une logique d’expansion infinie du capital et de la technologie qui ne peut qu’aboutir à la destruction du monde, puisque sa logique d’illimitation est incompatible avec les limites géophysiques de la Terre, ce qui mène à la catastrophe écologique déjà présente. Cela conduit à une forme exacerbée de la banalité du mal comme absence de pensée théorisée par Hannah Arendt, cette fois parce que le renoncement à penser ce que nous faisons pour procéder plutôt à un délestage cognitif de masse mène dans les faits au suicide des sociétés à grande échelle à cause du totalitarisme systémique capitaliste-cybernétique. Nous passons notre temps devant des écrans pendant que le capitalisme mondialisé sur le « pilote automatique » nous fait foncer dans le mur de la crise climatique.

Accélérationnisme et transhumanisme

Ce mouvement de décervelage et de destruction de l’autonomie individuelle et collective au profit des systèmes ne relève pas seulement d’une dérive ou d’une mutation propre à la transition postmoderne. Il est aussi revendiqué comme projet politique chez les accélérationnistes, notamment ceux de la Silicon Valley. Une des premières figures de l’accélérationnisme est le Britannique Nick Land, ancien professeur à l’Université de Warwick, où il a fondé le Cybernetic Culture Research Unit (CCRU) dans les années 1990. Land dit s’inspirer de Marx (!), de Deleuze et Guattari, de Nietzsche et de Lyotard pour conclure que l’avenir n’est pas de ralentir ou de renverser le capitalisme, mais d’accélérer son processus de déterritorialisation. Cette idéologie favorise ainsi l’accélération du capitalisme, de la technologie et se dit même favorable au transhumanisme, à savoir la fusion – partielle ou totale – de l’humain avec la machine dans la figure du cyborg[11]. Après avoir quitté l’université, Nick Land, notamment à cause de son usage de drogues, sombre dans la folie et l’occultisme. Il devient également ouvertement raciste et néofasciste. Il disparait pour refaire surface plusieurs années plus tard en Chine, une société qui, selon lui, a compris que la démocratie est une affaire du passé et qui pratique l’accélérationnisme technocapitaliste. Ses idées sont par la suite amplifiées et développées aux États-Unis par Curtis Yarvin, proche de Peter Thiel, fondateur de PayPal. Cela a engendré un mouvement de la néo-réaction ou NRx qui combine des thèses accélérationnistes et transhumanistes avec la promotion d’une privatisation des gouvernements, une sorte de technoféodalisme en faveur de cités-États gouvernées par les PDG de la techno. Il s’agit donc d’un mouvement qui considère que la démocratie est nuisible, étant une force de décélération, un mouvement qui entend réhabiliter une forme de monarchisme 2.0 mélangé à la fascination technique. On pourrait dire qu’il s’agit d’une nouvelle forme de technofascisme.

Ajoutons qu’une partie des idées de Land et de Yarvin nourrit non seulement l’« alt-right », mais aussi des mouvements ouvertement néonazis dont la forme particulière d’accélérationnisme vise à exacerber les contradictions raciales aux États-Unis pour mener à une société posteffondrement dominée par le suprémacisme blanc. Il existe également une forme d’accélérationnisme de gauche, associé à une figure comme celle de Mark Fisher, qui prétend conserver l’accélération technologique sans le capitalisme. Mais la majeure partie du mouvement est à droite, allant de positions anciennement libertariennes jusqu’à des positions néoautoritaires, néofascistes, transhumanistes ou carrément néonazies. Cette nébuleuse accélérationniste inspire les nouveaux monarques du technoféodalisme de la Silicon Valley, les Peter Thiel, Elon Musk, Mark Zuckerberg et Marc Andreesen[12]. Ceux-ci pensent que l’humain doit fusionner avec l’IA pour ensuite aller coloniser Mars, la Terre étant considérée comme écologiquement irrécupérable. Il n’est donc pas suffisant de parler d’un projet de scénarisation de l’humain par la machine au moyen du délestage cognitif, puisque ce qui est en cause dans le projet accélérationniste et transhumaniste implique carrément la fin de l’humanité telle qu’on l’entendait jusqu’ici. L’anti-humanisme radical doit être entendu littéralement comme un projet de destruction de l’humanité. Il s’agit d’un projet de classe oligarchique et eugéniste qui entend bien donner tout le pouvoir à une nouvelle « race » de surhommes riches et technologiquement augmentés dont le fantasme est de tromper la mort par le biais de la technique pour pouvoir jouir de leur fortune éternellement, à tel point qu’ils modifient actuellement les lois aux États-Unis pour pouvoir déshériter leur descendance et contrôler leurs avoirs éternellement lorsque la technologie les aura rendus immortels…

L’oubli de la société

Ce délire se déroule aussi sur fond « d’oubli de la société », comme le disait Michel Freitag[13], à savoir qu’il implique la destruction des anciennes médiations culturelles et symboliques aussi bien que celle des anciennes sociétés, comprises comme totalités synthétiques ou universaux concrets. Marcel Rioux l’avait déjà remarqué dans les années 1960, l’impérialisme technocapitaliste étatsunien conduit à la liquidation de la langue, de la culture et de la société québécoise. Du reste, comme le souligne Freitag, le fait d’être enraciné dans un lieu et un temps concret est remplacé par un déracinement qui projette le néosujet dans l’espace artificiel des réseaux informatiques ou de la réalité virtuelle. Du point de vue de l’éducation, à quoi sert-il alors de transmettre la culture, la connaissance du passé, les repères propres à cette société concrète ou à son identité, du moment qu’on ne nait plus dans une société, mais dans un réseau ? La médiation technologique et les écrans, en tant que technologie de disruption, viennent contourner les anciennes médiations et le processus d’individuation qu’elles encadraient, produisant des individus socialisés ou institués par les machines. Il devient alors beaucoup plus important d’anticiper l’accélération future et d’enseigner à s’y adapter, beaucoup plus important que d’expliquer le monde commun et sa genèse historique. De ce point de vue, l’ancien instituteur, « hussard noir de la République[14] », doit être remplacé par un professeur branché qui s’empresse d’intégrer les machines à sa classe, ou carrément par ChatGPT ou par un quelconque tuteur-robot. Ainsi la boucle serait complète : des individus formés par des machines pour vivre dans une société-machine, où l’ancienne culture et l’ancienne société auraient été remplacées par la cybernétique.

Une aliénation totale

Nous l’avons dit : les jugements enthousiastes sur cette époque sont généralement posés sans égard au corpus de la théorie critique ou de la philosophie de la technique. Il nous semble au contraire qu’il faille remobiliser le concept d’aliénation pour mesurer la dépossession et la perte qui s’annoncent en éducation, pour les étudiants, les étudiantes, les professeur·e·s, aussi bien que pour la société ou l’humanité en général. L’aliénation implique un devenir étranger à soi. En allemand, Marx emploie tour à tour les termes Entaüsserung et Entfremdung, extériorisation et extranéiation. La combinaison des deux résume bien le mouvement que nous avons décrit précédemment, à savoir celui d’une extériorisation de l’humanité dans des systèmes objectivés à l’extérieur, mais qui se retournent par la suite contre le sujet. Celui-ci se trouve alors non seulement dépossédé de certaines facultés cognitives, mais en plus soumis à une logique hétéronome d’aliénation qui le rend étranger à lui-même, à sa pratique, à autrui, à la nature et à la société – comme l’avait bien vu Marx –, sous l’empire du capitalisme et du machinisme. Le sujet se trouve alors « privé de monde[15] » par un processus de déshumanisation et de « démondanéisation ». Ce processus concerne aussi bien la destruction de la société et de la nature que celle de l’humanité à travers le transhumanisme. Nous pouvons ainsi parler d’une forme d’aliénation totale[16] – ou totalitaire – culminant dans la destruction éventuelle de l’humanité par le système technocapitaliste. Ajoutons que le scénario d’une IA générale (AGI, artificial general intelligence) ou de la singularité[17] est évoqué par plusieurs figures crédibles (Stephen Hawking, Geoffrey Hinton, etc.) comme pouvant aussi conduire à la destruction de l’humanité, et est comparé au risque de l’arme nucléaire. L’enthousiasme et la célébration de l’accélération technologique portés par les idéologues et l’idéologie dominante apparaissent d’autant plus absurdes qu’ils ignorent systématiquement ces mises en garde provenant pourtant des industriels eux-mêmes. Sous prétexte d’être proches des générations futures, soi-disant avides de technopédagogie, on voit ainsi des adultes enfoncer dans la gorge de ces jeunes un monde aliéné et courant à sa perte, un monde dont ils et elles ne veulent pourtant pas vraiment lorsqu’on se donne la peine de les écouter, ce dont semblent incapables nombre de larbins de la classe dominante et de l’accélérationnisme technocapitaliste, qui ont déjà pressenti que leur carrière actuelle et future dépendait de leur aplaventrisme devant le pouvoir, quitte à tirer l’échelle derrière eux dans ce qu’il convient d’appeler une trahison de la jeunesse.

Conclusion : réactiver le projet socialiste

Nous avons montré précédemment que l’extension du capitalisme cybernétique conduit à des dégâts : psychologiques, pédagogiques, développementaux, sociaux/relationnels. Nous avons montré que le problème est beaucoup plus large, et concerne, d’une part, le déchargement de la cognition et du jugement dans des systèmes extérieurs. D’autre part, il participe de la mise en place d’un projet politique technocapitaliste, celui d’une société postmoderne du « tout à distance » gérée par les systèmes, ce qui signifie la liquidation de l’idéal d’autonomie politique moderne. Cela entraine bien sûr des problèmes en éducation : formation d’individus poussés à s’adapter à l’accélération plutôt que de citoyens éclairés, fin de la transmission de la culture et de la connaissance, oubli de la société, etc. Plus gravement, cela participe d’une dynamique d’aliénation et de destruction du rapport de l’individu à lui-même, aux autres, à la nature et à la société. Ce processus culmine dans le transhumanisme et la destruction potentielle aussi bien de l’humain que de la société et de la nature si la dynamique accélérationniste continue d’aller de l’avant. Ce qui est menacé n’est donc pas seulement l’éducation, mais la transmission même du monde commun à ceux qu’Arendt appelait les « nouveaux venus », puisque ce qui sera transmis sera un monde de plus en plus aliéné et en proie à une logique autodestructive. Les Grecs enseignaient, notamment dans le serment des éphèbes, que la patrie devait être donnée à ceux qui suivent en meilleur état que lorsqu’elle avait été reçue de la génération antérieure. Les générations actuelles laissent plutôt un monde dévasté et robotisé, tout en privant celles qui viennent des ressources permettant de le remettre sur ses gonds.

Il convient évidemment de résister à ces transformations, par exemple en luttant localement pour défendre le droit à une éducation véritable contre la double logique de la marchandisation et de l’automatisation-robotisation. On peut encore réclamer de la régulation de la part des États, mais il est assez évident aujourd’hui que le développement de l’IA a le soutien actif des États – « comité de gestion des affaires de la bourgeoisie », disait Marx. Mais il faut bien comprendre que seule une forme de société postcapitaliste pourra régler les problèmes d’aliénation évoqués ci-haut. Il sera en effet impossible de démarchandiser l’école et de la sortir de l’emprise de la domination technologique sans remettre en question la puissance de ces logiques dans la société en général.

Depuis le XIXe siècle, la réaction à la destruction sociale engendrée par l’industrialisation a trouvé sa réponse dans le projet socialiste[18], qu’il s’agisse de la variante utopique, marxiste ou libertaire. On trouve aussi aujourd’hui des approches écosocialistes, décroissancistes ou communalistes[19]. Cette dernière approche, inspirée par l’écologie sociale de Murray Bookchin, préconise la construction d’une démocratie locale, écologique et anti-hiérarchique. Ce sont là différentes pistes pouvant nourrir la réflexion sur la nécessaire reprise de contrôle des sociétés sur l’économie et la technologie, dont la dynamique présente d’illimitation est en train de tout détruire. Cela laisse entière la question du type d’éducation qui pourrait favoriser la formation des citoyennes et citoyens communalistes dont le XXIe siècle a besoin. Chose certaine, il faudra, à rebours de ce que nous avons décrit ici, que cette éducation favorise l’autonomie, la sensibilité, la compassion, l’altruisme; qu’elle donne un solide enracinement dans la culture et la société, qu’elle apporte une compréhension de la valeur et de la fragilité du vivant et de la nature. Bref, elle devra former des socialistes ou des communalistes enracinés au lieu de l’aliénation et du déracinement généralisé actuels.

Par Eric Martin, professeur de philosophie, Cégep St-Jean-sur-Richelieu


NOTES

  1. Ce type de technologie cause un bouleversement profond dans les pratiques du champ où elle apparait.
  2. Franck Fischbach, La privation de monde. Temps, espace et capital, Paris, Vrin, 2011.
  3. Carolyne Labrie, « Les cégépiens ne veulent plus d’enseignement à distance », Le Soleil, 27 février 2023.
  4. Pour un développement détaillé de ces constats, voir Eric Martin et Sebastien Mussi, Bienvenue dans la machine. Enseigner à l’ère numérique, Montréal, Écosociété, 2023.
  5. Naomi Klein, « How big tech plans to profit from the pandemic », The Guardian, 13 mai 2020.
  6. Eric Sadin, L’intelligence artificielle ou l’enjeu du siècle. Anatomie d’un anti-humanisme radical, Paris, L’Échappée, 2021.
  7. « L’intelligence artificielle, une menace ou un nouveau défi à l’enseignement ? », La tête dans les nuances, NousTV, Mauricie, 29 mai 2023.
  8. Céline Lafontaine, L’Empire cybernétique. Des machines à penser à la pensée machine, Paris, Seuil, 2004.
  9. NDLR. Prompt : il s’agit d’une commande informatique destinée à l’utilisateur ou l’utilisatrice lui indiquant comment interagir avec un programme, ou dans le cas de ChatGPT, des instructions envoyées à la machine pour lui permettre de faire ce qu’on lui demande.
  10. Jean-Claude Michéa, L’enseignement de l’ignorance et ses conditions modernes, Castelnau-le-Lez, Climats, 2006.
  11. NDLR. Cyborg (mot formé de cybernetic organism) : personnage de science-fiction ayant une apparence humaine, composé de parties vivantes et de parties mécaniques.
  12. Marine Protais, « Pourquoi Elon Musk et ses amis veulent déclencher la fin du monde », L’ADN, 20 septembre 2023.
  13. Michel Freitag, L’oubli de la société. Pour une théorie critique de la postmodernité, Québec, Presses de l’Université Laval, 2002.
  14. En 1913, l’écrivain français Charles Péguy qualifie les instituteurs de « hussards noirs ». Combatifs et engagés, ils défendent l’école de la République.
  15. Fischbach, La privation de monde, op. cit.
  16. Voir la présentation de Gilles Labelle lors du séminaire du Collectif Société sur l’ouvrage Bienvenue dans la machine, UQAM, 28 avril 2023.
  17. D’après Wikipedia, « La singularité technologique (ou simplement la Singularité) est l’hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d’intelligence », débouchant sur une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine ». Cette thèse est notamment défendue par le futurologue transhumaniste Ray Kurzweil.
  18. Jacques Dofny, Émile Boudreau, Roland Martel et Marcel Rioux, « Matériaux pour la théorie et la pratique d’un socialisme québécois », article publié dans la revue Socialisme 64, Revue du socialisme international et québécois, n° 1, printemps 1964, p. 5-23.
  19. Eric Martin, « Communalisme et culture. Réflexion sur l’autogouvernement et l’enracinement », Nouveaux Cahiers du socialisme, n° 24, automne 2020, p. 94-100.

 

L’intelligence artificielle, une puissance médiocre

30 avril, par Rédaction

Today, we pose this question to new powers
Making bets on artificial intelligence, hope towers
The Amazonians peek through
Windows blocking Deep Blues
As Faces increment scars
Old burns, new urns
Collecting data chronicling our past
Often forgetting to deal with
Gender race and class, again I ask
« Ain’t I a woman? »

– Joy Buolamwini, AI, Ain’t I A Woman ?[1]

Alors qu’il y a une quinzaine d’années, les jeunes loups de la Silicon Valley ne cessaient de répéter que les développements de l’industrie de l’intelligence artificielle (IA) promettaient « d’amener un monde meilleur[2] », le discours du milieu est beaucoup plus dramatique aujourd’hui. Dans une récente émission spéciale de Radio-Canada sur l’intelligence artificielle, le chercheur montréalais Yoshua Bengio affirmait :

À partir du moment où on aurait des systèmes d’intelligence artificielle qui sont généralement beaucoup plus intelligents que nous, comment on fait pour les contrôler ? […] Il n’y a pas d’exemple dans l’histoire d’espèce qui contrôle une autre espèce qui serait plus intelligente[3].

Pourquoi les leaders d’une industrie mettent-ils autant d’efforts à nous avertir de potentielles menaces que leurs propres produits font peser sur les sociétés ? Dans une entrevue du balado Tech won’t save us, la linguiste Emily Bender propose quelques éléments d’explication à ce curieux phénomène : si les problèmes à caractère apocalyptique « sont aussi attirants », c’est parce ces leaders « préfèrent réfléchir à un « méchant » imaginaire comme on en retrouve dans la science-fiction […] plutôt que de regarder leur propre rôle dans les préjudices observés aujourd’hui[4] ». On pourrait ajouter que ce type de discours vient aussi renforcer l’apparence d’inéluctabilité de ces technologies.

Le travail de critique des développements en intelligence artificielle doit donc éviter un piège majeur, celui de contribuer à l’engouement autour de l’IA en lui attribuant des capacités qu’elle n’a pas réellement. Les discours critiques évoquant les risques d’une domination totale d’un technocapitalisme d’une grande efficience sur des individus qui ont perdu toute agentivité risquent fort d’entretenir à leur manière ce mythe de l’IA surpuissante, en plus de négliger les effets tangibles des systèmes actuellement déployés sur des populations déjà marginalisées.

Dans cet article, je soutiens au contraire que la critique de l’IA doit plutôt mettre en lumière la médiocrité de cette dernière. Le terme peut sembler fort, il est vrai qu’il existe plusieurs types d’IA, et clairement, certaines innovations s’avèrent étonnamment efficaces pour répondre à des objectifs circonscrits, comme le fait l’informatique depuis plusieurs décennies. Cependant, en dernière analyse, les luttes qui nous attendent se situent dans le prolongement de celles qui nous occupent déjà depuis longtemps, soit une résistance au capitalisme, à l’hétéropatriarcat, au racisme et au colonialisme.

« l’IA n’est pas artificielle et elle n’est pas intelligente [5] »

Il n’y a pas d’intelligence dans l’intelligence artificielle. De manière générale, on fait plutôt face à des développements informatiques qui ont permis à des algorithmes de repérer des occurrences dans d’énormes masses de données et de faire des prédictions sur cette base. Pour décrire les modèles de langage comme ChatGPT, Emily Bender a popularisé l’expression de « perroquet stochastique » (stochastic parrot [6]). Le terme « stochastique» fait référence à ce qui est généré à partir de variations aléatoires; autrement dit, ChatGPT est un baratineur. Des féministes l’ont aussi comparé à ces hommes qui parlent avec une grande assurance de sujets qu’ils ne maitrisent à peu près pas. Cela ne veut pas dire, par ailleurs, que ChatGPT n’a aucune utilité : par exemple, il est possible de synthétiser des textes ou de produire des tableaux à partir de bases de données. Il est néanmoins judicieux d’éviter d’exagérer ses capacités.

Il faut toujours garder à l’esprit tout ce qu’une intelligence dite « artificielle » vient puiser – piller, en termes clairs – et ce, tant au sein de nos sociétés que dans l’environnement. Les documents publiés dans le cadre de la poursuite du New York Times contre ChatGPT montrent que certains passages sont pratiquement du « copier-coller » d’articles publiés par le journal. ChatGPT repose également sur le travail d’employé·es du Kenya qui ont dû tracer la ligne entre le contenu acceptable et les propos haineux et violents, au prix de leur santé mentale et pour un salaire de 2 $ l’heure. Le magazine Time rapporte que cette tâche a causé un nombre de traumas si important au sein de la force de travail que la firme sous-traitante Sama a mis fin au contrat avec OpenAI huit mois plus tôt que prévu[7]. Ce genre de « nettoyage des données » est nécessaire pour plusieurs systèmes en vogue aujourd’hui. Quant aux impacts environnementaux, on a déjà des chiffres éloquents : l’IA générative a fait bondir la consommation d’eau chez Microsoft, propriétaire d’OpenAI qui a développé ChatGPT, de 34 % entre 2021 et 2022[8].

En dépit de tous ces effets négatifs et malgré des investissements considérables, l’IA demeure souvent médiocre. Les exemples abondent. Après des années, voire des décennies, d’annonces de l’arrivée imminente des voitures autonomes pour le public, celles-ci sont toujours « en route vers nulle part », selon Christian Wolmar, journaliste britannique spécialisé dans les enjeux de transport : « Les entreprises des technos ont constamment sous-estimé la difficulté à égaler, sans parler d’améliorer, les aptitudes de conduite des humains[9] ».

Poursuivons avec d’autres exemples, d’abord concernant la désinformation par les fameux hypertrucages (deepfakes). On présente souvent le risque d’une guerre qui serait déclenchée par une fausse déclaration de la part de Vladimir Poutine ou de Joe Biden, mais la personne attentive remarquera qu’aucun article portant ces avertissements nefournit d’exemple tangible où un tel trucage a produit un effet politique significatif sur une société. Plus largement, la désinformation en ligne a plutôt tendance à renforcer les opinions de personnes déjà sensibles au message politique véhiculé; autrement dit, celles et ceux qui y adhèrent veulent souvent déjà y croire. Pour le reste, les hypertrucages et les fausses nouvelles ont surtout comme effet de généraliser le doute et la méfiance à l’égard de ce qui nous est présenté, ce qui est à l’opposé des capacités qu’on attribue à ces procédés, à savoir faire croire à son authenticité[10].

Qu’en est-il des algorithmes des médias sociaux ? La recherche sur les fameuses « chambres d’écho » dans lesquelles les internautes risqueraient d’être « coincé·es » est loin d’être concluante. Le journaliste scientifique Jean-François Cliche présentait récemment des recherches montrant que « non seulement la plupart des gens sont exposés à toutes sortes de vues, mais ils s’engagent aussi sciemment dans des échanges avec des personnes aux convictions opposées[11] ». Les algorithmes des médias sociaux ne sont pas programmés et calibrés pour nous offrir ce qui correspond à nos intérêts et croyances, mais plutôt pour présenter du contenu qui nous garde sur le site afin d’accumuler des données à notre sujet et nous offrir de la publicité ciblée, ce qui n’est pas la même chose. À la limite, on pourrait comparer le scrolling, le défilement du contenu d’un écran, des années 2020 au zapping des années 1990 : on se demande, une heure plus tard, pourquoi on a perdu un tel temps à regarder du contenu aussi insignifiant…

Terminons avec le cas de la reconnaissance faciale. Il est loin d’être clair que la vidéosurveillance assistée par les algorithmes est si efficace. Entre 2017 et 2021, en prévision des Jeux olympiques de Paris, la Société nationale des chemins de fer français (SNCF) a testé 19 logiciels de vidéosurveillance algorithmique : seuls 9 ont eu une performance supérieure à 50 %[12]. En 2018, il a été divulgué que le système de reconnaissance faciale utilisé par la Metropolitan Police de Londres avait produit 98 % de faux positifs : seules 2 alertes sur 104 étaient correctes[13]. Israël est un leader des technologies de surveillance, y compris celles de reconnaissance faciale, mais cela n’a aucunement été utile pour prévenir les attaques du Hamas le 7 octobre 2023.

« L’IA est basée sur les données, et les données sont un reflet de notre histoire[14] »

À la lecture de ces exemples, on sera peut-être tenté de répondre : « Bien sûr, l’IA fait des erreurs, mais c’est parce que nous sommes seulement aux débuts de son développement ! » Mais en disant cela, ne sommes-nous pas en train de reprendre les arguments de vente de l’industrie ? Pour paraphraser le philosophe Hubert Dreyfus qui critiquait déjà les prétentions des chercheurs en intelligence artificielle dans les années 1970, ce n’est pas parce qu’on a atteint le sommet de la tour Eiffel qu’on est plus près d’atteindre la Lune…

Certes, l’IA actuelle permet des prouesses étonnantes et annonce plusieurs changements dans nos vies, notamment dans divers secteurs du travail. Mais, comme le dit Hubert Guillaud, « l’IA vise à accélérer la prise de décision bien plus qu’à l’améliorer[15] ». Il s’agit souvent de faire des gains de productivité à l’aide de logiciels qui simulent ou surveillent l’activité humaine avec une efficacité variable, faisant ainsi pression sur la force de travail. Ces bouleversements sont plus terre-à-terre que les menaces existentielles du style de La Matrice[16], mais ils font pourtant partie de ceux qui doivent réellement nous préoccuper. Même une IA aux capacités restreintes peut causer des dégâts considérables; on rejoint ici les préoccupations d’André Gorz pour qui les innovations technologiques doivent être développées dans une optique d’allègement du travail et d’augmentation de l’autonomie.

Cela étant, la soi-disant intelligence artificielle comporte des limites majeures dont rien n’indique qu’elles pourront un jour être dépassées. D’abord, les accomplissements issus des réseaux neuronaux et de l’apprentissage profond, contrairement à ce que ces termes laissent entendre, ne signifient pas que ces systèmes possèdent les capacités de saisir le sens des créations humaines. L’IA ne comprend pas ce qu’elle voit et ne fait pas preuve de créativité : elle fournit des réponses et des prédictions de manière probabiliste, sur la base des données qui lui ont été fournies. En dernière analyse, l’IA contemporaine soulève une question épistémologique : qu’est-ce que les données nous concernant, si vastes et intrusives sont-elles, saisissent véritablement de ce que nous sommes ? Jusqu’à quel point peut-on traduire les émotions, aspirations, craintes et espoirs d’un être humain en données chiffrées ou en code informatique ?

Il y a une autre limite structurelle à l’IA actuelle : puisque les générateurs de langage ou d’images et les algorithmes d’aide à la prise de décision s’appuient inévitablement sur des données du passé, cela leur donne un biais, un angle, éminemment conservateur. Ils tendent à reproduire les iniquités, stéréotypes, dominations et oppressions déjà présents dans nos sociétés, en leur donnant un vernis « neutre » parce que « mathématique ».

Ici aussi, les exemples sont nombreux. La chercheuse et militante Joy Buolamwini a bien démontré que plusieurs logiciels de reconnaissance faciale sont très inefficaces pour identifier ou même simplement repérer les visages des personnes noires[17]. Les six cas d’arrestations erronées basées sur la reconnaissance faciale répertoriés par l’American Civil Liberties Union impliquent tous des personnes noires[18].

Les logiciels de prédiction de la criminalité posent le même genre de problèmes. Aux États-Unis, ces systèmes de décision automatisés peuvent assister la police en indiquant où patrouiller sur la base de données passées, ou encore peuvent aider des juges à évaluer les risques de récidive afin de déterminer la caution ou les conditions de probation d’individus.

Or, sachant que les systèmes judiciaires et policiers occidentaux sont fortement imprégnés de racisme et de classisme systémiques – certains quartiers étant sur-surveillés par rapport à leur taux de criminalité réel ou certains groupes condamnés étant l’objet de peines et de conditions plus sévères en raison de préjugés du système judiciaire –, les logiciels s’appuyant sur de telles données tendent à reproduire ces inégalités et injustices[19].

Il en est de même lorsque des compagnies de crédit ou d’assurance assignent un classement aux individus pour déterminer leur solvabilité ou leur niveau de risque : une personne avec un dossier sans faille peut voir celui-ci dénaturé par le recours à des probabilités basées sur les dossiers de personnes aux caractéristiques sociales similaires. C’est aussi le cas pour les admissions universitaires ou collégiales, pour l’attribution d’un logement social, pour l’embauche et les évaluations au travail[20]… Bref, on risque de renforcer des formes automatisées de ségrégation économique, genrée ou raciale effectuées par des systèmes qualifiés d’intelligents.

« L’IA étroite se résume à des mathématiques[21] »

Le mythe d’une IA surpuissante, redoutablement efficace, incontrôlable et menaçante est tenace. Du Frankenstein de Mary Shelley aux récits glaçants de la série Black Mirror, en passant par 2001 : l’odyssée de l’espace et les films Terminator, on constate une propension récurrente à fantasmer des machines qui dépassent, voire asservissent, l’être humain.

Ce mythe n’est pas seulement entretenu par des œuvres de fiction. Il est frappant de constater aujourd’hui des points de convergence entre les avertissements lancés par les gourous de l’univers des technos et certains discours critiques de l’IA, notamment les craintes à l’égard d’une domination totale d’une forme technologique sur les vies humaines. Alors que le chercheur Yoshua Bengio s’inquiète d’une IA qui aurait de tels désirs d’autopréservation qu’on ne pourrait plus la débrancher – « Si elle raisonne un peu, elle va se rendre compte qu’un humain pourrait effectivement la débrancher. Que fera-t-elle ? Elle pourrait se dupliquer sur d’autres machines[22] » –, le philosophe Eric Martin entrevoit « notre enfermement aliénant dans le monde forclos du jugement-machine et du capitalisme automatisé, un “monde sans humains” où nous n’aurons pas disparu, mais serons devenus les objets de machines-sujets qui penseront à notre place[23] ». Pour son collègue Maxime Ouellet, « la capacité de la praxis sociale d’instituer des normes […] se trouve anéantie » par les algorithmes et les big data, « [en] modelant la régulation sociale sur l’anticipation de l’action des sujets[24] ».

Ces perspectives critiques posent plusieurs problèmes. D’abord, en surestimant les capacités de l’IA, on entretient le discours actuel de légitimation de l’industrie. Ensuite, les inquiétudes concernant un « futur plus ou moins proche » éveillent des fantasmes dystopiques enivrants, mais nous amènent à négliger les problèmes moins glamour que l’IA pose dès maintenant : par exemple, à l’heure actuelle les hypertrucages servent davantage à dénuder des femmes sans leur consentement qu’à perturber des campagnes électorales. Troisièmement, en opposant l’IA – ou les robots ou les machines – à l’Humanité avec un grand H, on tend à laisser de côté les effets négatifs plus prononcés de ces technologies sur les groupes de la population qui sont déjà davantage opprimés, exploités et marginalisés. Enfin, en postulant que ce développement technologique amène notre société dans une ère totalement inédite, on tend à sous-estimer la capacité de l’IA à reconduire sous un nouveau visage des formes de domination anciennes et connues.

Ce n’est d’ailleurs pas une coïncidence si les critiques que j’ai amenées dans cet article sont issues en grande majorité du travail de femmes racisées telles que Joy Buolamwini, Timnit Gebru, Safiya Noble et Meredith Broussard[25]. Or, certaines analyses nous invitent plutôt à entrevoir les perspectives critiques féministes et antiracistes de l’IA comme une simple extension de la sphère de l’éthique libérale, qui chercherait essentiellement à améliorer ces systèmes. En d’autres termes, ces critiques ne seraient pas porteuses de radicalité. Par exemple, Eric Martin écrit :

Dans la nouvelle éthique sans politique contemporaine, […] les seules questions autorisées ne concernent pas le caractère désirable du développement des robots, mais portent sur la manière de les programmer afin qu’ils ne soient pas sexistes ou racistes. On s’attaquera ainsi aux problèmes par le petit bout de la lorgnette, ce qui évitera de poser d’importantes questions sur le plan macrosociologique, à savoir par exemple que le développement du capitalisme détruit aussi bien les sociétés que la nature. Il y a donc, dit Castoriadis, « abandon du décisif au profit du trivial », et parler de ce dernier à profusion servira commodément d’écran médiatico-spectaculaire pour faire oublier la totale soumission sur le plan du premier[26].

Je partage les critiques d’Eric Martin selon lesquelles l’éthique libérale sert effectivement de légitimation aux développements de l’industrie, particulièrement à Montréal où l’éthique est devenue un élément central de l’image de marque de l’IA locale. Cependant, il m’apparait curieux de considérer que la déconstruction des systèmes d’oppression patriarcale et raciale serait « triviale » alors que ceux-ci concernent la grande majorité de la population de la planète.

Par ailleurs, il est erroné de prétendre que la critique féministe et antiraciste de l’IA se contente d’accompagner l’expansion du capitalisme en lui donnant un visage diversitaire ou woke, comme le veut la terminologie réactionnaire de notre époque. Observons par exemple le travail militant de l’Algorithmic Justice League (AJL) fondée par Buolamwini. L’organisation a pour objectif de sensibiliser la population et les élu·es aux biais et autres méfaits que peut amener l’IA. Leur site Web présente en détail leurs perspectives de lutte. On y explique par exemple que :

la justice requiert qu’on empêche l’IA d’être utilisée par les personnes au pouvoir pour augmenter leur niveau absolu de contrôle, particulièrement s’il s’agit d’automatiser des pratiques d’injustice bien ancrées historiquement, telles que le profilage racial par les forces policières, les biais sexistes à l’embauche et la sur-surveillance de communautés immigrantes. La justice implique de protéger les personnes ciblées par ces systèmes[27].

On y trouve également une critique de l’éthique en intelligence artificielle :

L’utilisation de l’éthique n’est pas en soi problématique, mais a mené à la prolifération de « principes en IA » avec peu de moyens pour les appliquer en pratique. […] De notre point de vue, il s’agit d’une approche limitée, parce qu’elle ne crée pas d’obligations ou n’interdit pas certains usages de l’IA. […] Si nous nous soucions uniquement de faire des améliorations aux jeux de données et aux processus informatiques, nous risquons de créer des systèmes techniquement plus précis, mais également plus susceptibles d’être utilisés pour de la surveillance massive et d’accentuer des pratiques policières discriminatoires[28].

Ainsi, on voit qu’une critique féministe et antiraciste peut très bien s’inscrire dans une perspective abolitionniste face à certains développements technologiques et nourrir une dénonciation radicale du capitalisme.

Surtout, ce genre d’ancrage permet de mettre en lumière que ces développements techniques s’inscrivent dans l’histoire plus générale de la science, et de la manière dont une science médiocre a pu s’articuler à des visées de domination et d’exploitation. Comme le dit Cory Doctorow, « le racisme scientifique est parmi nous depuis des siècles[29] ». Au XIXe siècle, la phrénologie prétendait pouvoir identifier le caractère d’une personne, et notamment sa propension à la criminalité, à partir de la forme de son crâne. Au tournant du XXe siècle, des mathématiciens de renom ont participé à la fondation des statistiques telles qu’on les connait parce qu’elles permettaient d’escamoter leurs conclusions eugénistes derrière un paravent prétendument objectif[30]. Aujourd’hui, des chercheurs publient des articles dans des revues scientifiques prestigieuses dans lesquelles ils affirment que des systèmes d’intelligence artificielle leur permettent d’identifier l’orientation sexuelle ou les affiliations politiques d’un individu à partir de simples photos du visage[31].

Si la science et la technique médiocres ont fréquemment été des instruments de domination et d’exploitation, cette perspective historique permet aussi de nourrir l’espoir : la mauvaise science et la mauvaise technique peuvent être contestées et rejetées. Au-delà de la technologie elle-même, le problème est ultimement politique : ce dont il est question, c’est du pouvoir qui mobilise l’IA, du pouvoir que l’IA permet de développer sur les populations et du pouvoir qu’il nous faut construire pour se l’approprier ou l’abolir.

Par Philippe de Grosbois, professeur en sociologie au Collège Ahuntsic


NOTES

  1. Joy Buolamwini, AI, Ain’t I A Woman ?, YouTube, 28 juin 2018. Ain’t I a Woman? est un discours prononcé par la féministe afro-américaine Sojourner Truth en 1851. Traduction littérale du poème par la rédaction :
    Aujourd’hui, nous posons cette question à de nouvelles puissances
    Nous parions sur l’intelligence artificielle, tours d’espoir.
    Les Amazoniens jettent un coup d’œil à travers
    les fenêtres (Windows) bloquant les bleus profonds (Deep Blues)
    alors que les visages augmentent (increment) les cicatrices.
    De vieilles brûlures, de nouvelles urnes
    Collecte de données retraçant notre passé
    Oubliant souvent de traiter du genre, de la race et de la classe, je demande à nouveau
    « Ne suis-je pas une femme ? »
  2. « Make the world a better place » : c’est une formule répétée comme un mantra et ridiculisée par la série humoristique Silicon Valley.
  3. « Émission spéciale : L’intelligence artificielle décodée », Radio-Canada Info, 7 décembre 2023, 89e et 90e minutes.
  4. « ChatGPT is not intelligent, Emily M. Bender », Tech Won’t Save Us, 13 avril 2023, 51e minute. Ma traduction.
  5. Cory Doctorow, « The AI hype bubble is the new crypto hype bubble », Pluralistic, 9 mars 2023. Ma traduction.
  6. Elizabeth Weil, « You are not a parrot and a chatbot is not a human. And a linguist named Emily Bender is very worried what will happen when we forget this », New York Magazine, 1er mars 2023.
  7. Billy Perrigo, « OpenAI used kenyan workers on less than $2 per hour to make chatGPT less toxic », Time, 18 janvier 2023.
  8. Nastasia Michaels, « 6,4 milliards de litres pour Microsoft : l’IA générative a-t-elle fait exploser la consommation d’eau des géants de la tech ? », Geo, 12 septembre 2023.
  9. Christian Wolmar, « Driverless cars were the future but now the truth is out : they’re on the road to nowhere », The Guardian, 6 décembre 2023. Ma traduction.
  10. J’ai développé davantage ces idées dans le livre La collision des récits. Le journalisme face à la désinformation, Montréal, Écosociété, 2022.
  11. Jean-François Cliche, « Avons-nous tout faux sur les bulles Facebook? », Québec Science, 12 janvier 2023. Voir aussi Laurent Cordonier et Aurélien Brest, « Comment les Français choisissent-ils leurs médias? », The Conversation, 22 mai 2023.
  12. Jean-Marc Manach, « 50 % des algorithmes de vidéosurveillance testés par la SNCF jugés “insatisfaisants” », Next, 4 janvier 2024.
  13. Jon Sharman, « Metropolitan Police’s facial recognition technology 98 % inaccurate, figures show », The Independent, 13 mai 2018.
  14. Phrase de Joy Buolamwini, dans le documentaire de Shalini Kantayya, Coded Bias, États-Unis, 7th Empire Media, 2020, 6e minute.
  15. Hubert Guillaud, « L’IA vise à accélérer la prise de décision, bien plus qu’à l’améliorer! », InternetActu, 6 janvier 2022.
  16. NDLR. Film de science-fiction australo-américain sorti en 1999 qui dépeint un futur dans lequel la plupart des humains perçoivent la réalité à travers une simulation virtuelle, étant connectés à la « Matrice », créée par des machines douées d’intelligence afin de les asservir.
  17. Voir le documentaire Coded Bias, op. cit.
  18. « Meet Porcha Woodruff, Detroit woman jailed while 8 months pregnant after false AI facial recognition », Democracy Now!, 9 août 2023.
  19. Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine bias », ProPublica, 23 mai 2016. Voir aussi Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023, p. 208-226.
  20. On trouvera plusieurs exemples documentés de ces phénomènes dans le livre de Cathy O’Neil, Weapons of Math Destruction, New York, Crown, 2016.
  21. Phrase de Meredith Broussard dans Coded Bias, op. cit.
  22. Philippe Mercure, « Convaincs-moi… que l’intelligence artificielle menace l’humanité », La Presse, 12 septembre 2023.
  23. Eric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société, n° 3, 2021, p. 216.
  24. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 225-226.
  25. Voir notamment Joy Buolamwini, Unmasking AI, New York, Random House, 2023 ; Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, New York University Press, 2018 ; Meredith Broussard, Artificial Unintelligence, MIT Press, 2019. Pour un portrait de plusieurs de ces chercheuses, voir Lorena O’Neil, « These women tried to warn us about IA », RollingStone, 12 août 2023.
  26. Eric Martin, op. cit., p. 205. Je souligne.
  27. The Algorithmic Justice League, Learn more. Ma traduction.
  28. Ibid. Ma traduction.
  29. Cory Doctorow, « Machine learning is a honeypot for phrenologists », Pluralistic, 15 janvier 2021. Ma traduction.
  30. Voir Aubrey Clayton, « How eugenics shaped statistics », Nautilus, 27 octobre 2020.
  31. Voir Catherine Stinson, « The dark past of algorithms that associate appearance and criminality », Scientific American, vol. 109, n° 1, 2021, et Cory Doctorow, « Machine learning… », op. cit.

 

L’intelligence artificielle et les algorithmes : au cœur d’une reconfiguration des relations internationales capitalistes

21 avril, par Rédaction

Dans cet article, nous explorons certaines reconfigurations de l’économie politique des relations internationales dans la foulée de l’avènement de nouveaux modes d’exploitation et d’expropriation et de nouvelles relations de dépendance à l’ère des technologies algorithmiques et de l’intelligence artificielle (IA).

Nous identifions d’abord certaines limites de l’hypothèse influente du « techno-féodalisme » pour expliquer les changements politicoéconomiques contemporains, et nous adoptons plutôt le cadre du « capitalisme algorithmique » qui nous apparait plus apte à rendre compte des développements actuels. Deuxièmement, nous examinons les nouveaux rapports capital-travail engendrés par la montée des plateformes et par la prolifération du « travail digital », en nous concentrant surtout sur des espaces du Sud global. Nous nous penchons ensuite sur une nouvelle modalité de transfert de valeur du Sud global vers le Nord sous la forme de l’extraction de données rendue possible par le déploiement d’infrastructures de technologies numériques dans des pays du Sud. Finalement, nous discutons brièvement de la rivalité sino-américaine et nous faisons appel au concept de « périphérisation » afin d’explorer quelques tensions, déplacements et continuités dans l’économie politique internationale, de la période du capitalisme néolibéral à celle du capitalisme algorithmique.

L’économie politique de l’IA et des algorithmes : une logique féodale ou capitaliste ?

Comment conceptualiser le contexte historique du déploiement accéléré des technologies d’IA ? L’économiste Cédric Durand a formulé une théorisation des transformations contemporaines de l’économie politique du numérique qui a réveillé l’économie politique hétérodoxe de son sommeil dogmatique et qui exerce une grande influence au sein de la gauche[2]. Sa conceptualisation « technoféodale » de l’économie politique contemporaine constitue une contribution d’une grande valeur, mais elle souffre également de limites importantes. Le concept de technoféodalisme met l’accent sur les intangibles[3] et sur les déplacements qu’ils occasionnent dans l’organisation de la production, de la distribution et de la consommation. Selon cette hypothèse, le durcissement des droits de propriété intellectuelle, la centralisation des données et le contrôle oligopolistique de l’infrastructure sociotechnique au cœur du déploiement des technologies algorithmiques et du pouvoir économique des grandes plateformes participent tous à la formation d’une vaste économie de rentes structurée autour de relations de dépendance de type « féodal ».

Les configurations économiques technoféodales sont largement répandues, selon Durand. D’une part, elles s’expriment dans les relations de travail : « Alors que la question de la subordination se trouve au cœur de la relation salariale classique, c’est le rapport de dépendance économique qui est prééminent dans le contexte de l’économie des plateformes[4] ». Durand détecte une dynamique de dépendance non capitaliste dans un contexte où la gestion par les plateformes d’une myriade de travailleuses et travailleurs dispersés subvertit les formes contractuelles d’exploitation du travail salarié. D’autre part, des dynamiques « féodales » se déploient également dans les relations entre différents capitaux : « L’essor du numérique bouleverse les rapports concurrentiels au profit de relations de dépendance, ce qui dérègle la mécanique d’ensemble et tend à faire prévaloir la prédation sur la production[5] ». Malgré la diversité des innovations, notamment autour de l’IA, lesquelles se multiplient à un rythme accéléré, il peut sembler tentant d’aller plutôt vers la notion de féodalisme étant donné la tendance lourde à la stagnation de la productivité et de la croissance économique.

La terminologie féodale identifie certes des changements importants dans les relations fondamentales du capitalisme, mais elle crée à notre avis un cadre conceptuel anachronique qui souffre de limites importantes, surtout lorsqu’il s’agit d’analyser le moment contemporain du déploiement de technologies algorithmiques et de l’IA dans une perspective globale. Premièrement, le terme génère une conception du changement sociohistorique eurocentriste en situant les développements contemporains dans un cadre conceptuel qui reproduit l’expérience historique européenne. Deuxièmement, et de façon reliée, le cadre conceptuel « néoféodal » ignore ainsi comment le capitalisme s’est développé à l’échelle mondiale à partir d’une articulation interne de formes hétérogènes de travail et de marché, d’exploitation et d’extraction, en particulier en rendant l’existence de formes marginales et subordonnées en périphérie indispensable pour le maintien de formes capitalistes plus typiques au centre. Troisièmement, le modèle mène à une conception réductionniste de la transition en niant son contenu concret. Dans l’analyse d’un processus en cours, il est problématique de recourir à des débats sur la transition du féodalisme au capitalisme alors que ceux-ci portent sur des modes de production pleinement constitués sur le plan historique. Cela risque de mener à un raisonnement tautologique, où des caractéristiques soi-disant « non capitalistes » de la nouvelle économie sont étiquetées a priori comme « féodales », pour ensuite en faire dériver un modèle « technoféodal ». Pour ces raisons, la référence au féodalisme européen est davantage une allusion, une métaphore, certes très évocatrice, mais sans véritable pouvoir explicatif[6] : il s’agit davantage par cette notion de signaler des changements économiques contemporains sous le sceau d’un sentiment général de « régression ».

Il faut à notre avis inscrire la récente vague de changements sociotechniques dans un cadre qui permet de saisir les reconfigurations globales et les combinaisons émergentes entre anciennes et nouvelles formes d’accumulation. Plutôt qu’un « retour vers le futur » féodal, nous soutenons que les transformations contemporaines représentent un nouveau stade du développement capitaliste, le capitalisme algorithmique[7], au sein duquel une logique d’exploitation/extraction capitaliste déploie des mécanismes rentiers et de nouvelles formes de dépendance[8]. Comme nous l’ont rappelé entre autres Nancy Fraser, David Harvey et David McNally, l’extraction et « l’accumulation par dépossession » sont des processus continus de l’accumulation du capital, et non pas un moment « d’accumulation initiale » révolu, ou encore des restes historiques de modes de production précapitalistes.

Le capital algorithmique se caractérise par le développement et l’adoption rapide des technologies algorithmiques portés par un impératif d’extraction de données qui (re)produit des relations d’exploitation/extraction dans les espaces-temps du travail, du loisir et de la reproduction sociale, brouillant ces distinctions du point de vue de l’économie politique du capitalisme[9]. En effet, l’exploitation du temps de travail dans la production de valeur d’échange, la forme « classique » de l’accumulation capitaliste, s’accompagne désormais d’une nouvelle forme d’extraction, celle des données, qui se produit pendant et au-delà du temps de travail. On observe ainsi de nouvelles formes de production de valeur qui s’étendent au-delà du temps de travail au fil de différentes opérations d’extraction, de traitement et de transformation de données qui génèrent diverses formes d’actifs et de marchandises pour les capitalistes algorithmiques.

Depuis le milieu des années 2000, les algorithmes se sont encastrés dans divers aspects de l’accumulation du capital, que ce soit sur le plan de la production, de la distribution ou de la consommation. Ils médiatisent les relations sociales, orientent les flux de la (re) production socioéconomique et du travail, et disséminent leur logique prédictive dans la société. Il est désormais ardu de trouver des secteurs économiques, des marchés, voire des sphères de la société, qui ne soient pas transformés ou influencés par les données massives et les algorithmes. Depuis la crise du néolibéralisme financiarisé de 2007-2008, le capital algorithmique reconfigure, réoriente et transcende divers processus et dynamiques du capitalisme néolibéral, alors que les compagnies technologiques des GAFAM[10] entre autres sont devenues les plus grandes compagnies au monde et des fers de lance de l’accumulation capitaliste. Bien entendu, les transitions historiques s’opèrent sur le long terme, et la crise de 2007-2008 est selon nous le symbole d’un processus prolongé de chevauchements et de changements plutôt qu’une rupture nette ou subite. Néanmoins, une transition s’opère effectivement depuis les 15 à 20 dernières années et reconfigure le système capitaliste et son économie politique internationale. De ce point de vue, les nouvelles articulations des rapports entre le Nord et le Sud global se déploient non pas dans le contexte d’un moment « néoféodal » mondialisé, mais dans celui de l’avènement du capital algorithmique. Les nouvelles relations dans la division internationale du travail et les nouveaux mécanismes de transfert de valeur du Sud vers le Nord (et maintenant aussi vers la Chine) se saisissent plus aisément de ce point de vue.

Rapports capital-travail et division internationale du travail

La montée historique du capital algorithmique s’accompagne de reconfigurations importantes du travail aux ramifications internationales. Au premier chef, de nouvelles formes de travail digital combinent, au sein d’assemblages divers, des processus d’exploitation du travail et d’extraction de données sous quatre formes principales. Le « travail à la demande » est le résultat d’une médiation algorithmique, souvent par des plateformes, de l’économie des petits boulots (gig work) ; le « microtravail » fragmente et externalise des tâches numériques auprès de bassins de travailleuses et travailleurs du clic ; le « travail social en réseau » est le lot d’utilisatrices et d’utilisateurs de plateformes, notamment les médias sociaux, lesquels produisent du contenu et traitent des données ; finalement, le « travail venture » forme une nouvelle élite du travail autour de femmes et d’hommes programmeurs, ingénieurs et autres scientifiques de données et experts en IA employés par les firmes technologiques[11]. Chacune de ces formes de travail digital déploie une logique d’exploitation/extraction, alors que la valeur et les données migrent du travail vers le capital algorithmique.

Ces reconfigurations de la relation capital-travail ont en retour réajusté des pratiques de sous-traitance et de délocalisation du travail par les compagnies technologiques du Nord vers les travailleuses et travailleurs du Sud. L’exemple bien connu de la plateforme américaine Uber, qui a conquis tant d’espaces urbains et semi-urbains dans le Sud global, est évocateur de cette tendance large. De plus, la sous-traitance du microtravail par les firmes technologiques auprès de travailleuses et travailleurs du digital du Sud global crée de nouvelles relations d’exploitation/extraction directes et indirectes. Des cas bien documentés comme celui de la sous-traitance par la firme OpenAI de travail d’étiquetage et de « nettoyage » des données utilisées pour entrainer son large modèle de langage ChatGPT auprès de microtravailleuses et microtravailleurs kenyans est évocateur. Ces derniers devaient « nettoyer » les données d’entrainement de ChatGPT afin d’en retirer les contenus violents ou inacceptables pour le modèle tels que des agressions sexuelles, l’abus d’enfants, le racisme ou encore la violence qui pullulent sur Internet[12]. Plusieurs de ces travailleuses et travailleurs ont souffert par la suite du syndrome de choc post-traumatique. Cela n’est que la pointe de l’iceberg d’un vaste réseau de nouveaux marchés de travail digital qui reconfigurent la division internationale du travail à l’ère numérique.

Hormis le microtravail effectué sur la gigaplateforme Amazon Mechanical Turk, surtout concentré aux États-Unis, la plupart du microtravail est effectué dans le Sud global. Le travail digital configure ainsi ses propres chaines de valeur selon une dynamique qui reproduit les pratiques de délocalisation suivant l’axe Nord-Sud de la division internationale du travail. En 2024, la majorité des requérants de microtravail se trouve dans les pays du G7, et la majorité des exécutants de ces tâches dans le Sud global. Souvent, ces travailleuses et travailleurs ne sont pas reconnus comme employés des plateformes, ne jouissent d’aucune sécurité d’emploi, d’affiliation syndicale ou de salaire fixe. Ces personnes héritent également de tâches aliénantes et sous-payées d’entrainement d’algorithmes, de traitement de données et de supervision d’intelligences artificielles qui passent pour pleinement automatisées.

La constitution d’un marché international du travail digital mobilise différents mécanismes institutionnels de l’industrie du développement international. Par exemple, la montée d’organisations d’« impact-sourcing[13] » participe d’une redéfinition du développement international autour de la notion de « fournir des emplois au lieu de l’aide[14] ». La logique de l’impact-sourcing n’est pas nouvelle, elle reproduit des processus de délocalisation et la quête de travail bon marché typique de la mondialisation néolibérale, comme la délocalisation des emplois de services à la clientèle en Asie, notamment en Inde. L’impact-sourcing se concentre toutefois sur la délocalisation du travail digital. Au départ, ces organisations d’externalisation étaient sans but lucratif pour la plupart et, appuyées par la Banque mondiale, elles distribuaient des téléphones portables et des tâches de microtravail dans des camps de réfugié·es, des bidonvilles et dans des pays du Sud global frappés durement par des crises économiques, au Venezuela par exemple. Plusieurs de ces organisations sont devenues par la suite des compagnies à but lucratif qui jouent désormais un rôle majeur dans la constitution et l’organisation d’un marché du travail digital dans des communautés où les occasions d’emploi formel sont rares. La firme Sama par exemple, celle-là même engagée par OpenAI pour sous-traiter l’entrainement des données de ChatGPT, est active en Afrique, en Asie et en Amérique latine, où elle constitue des bassins d’emploi de travail digital à bon marché, notamment en Haïti et au Pakistan.

Nous voyons ainsi que le capital algorithmique introduit des modes d’articulation d’activités formelles et informelles, de boulots d’appoint et de tâches diverses sur plusieurs territoires. Le contrôle centralisé algorithmique de toutes ces activités garantit qu’elles produisent des données qui (re)produisent des formes de surveillance, de pouvoir social et de subordination du travail. Le travail qui supporte le développement de l’IA et des technologies algorithmiques ne provient donc pas uniquement de la Silicon Valley. C’est plutôt un travail collectif mondial qui produit l’IA à l’heure actuelle, mais la concentration de richesse et de pouvoir qui en découle se retrouve aux États-Unis et en Chine.

Extraction des données et transfert de valeur

La montée du travail digital dans le Sud global est également symptomatique de l’impératif d’extraction du capital algorithmique. L’Organisation mondiale du commerce (OMC) et la plupart des accords mondiaux de libre-échange qui structurent le commerce international régulent le mouvement des biens et services, mais aussi des données. Les géants du numérique comme Meta, Google, Amazon et Microsoft dominent à l’échelle mondiale et sont actifs dans le déploiement d’une infrastructure numérique dans les pays du Sud global en échange d’un accès exclusif aux données ainsi générées. Les ramifications internationales de cette « datafication » du Sud global[15] nous invitent à réviser le contenu de concepts tels que le colonialisme ou encore l’impérialisme. L’hégémonie américaine de la deuxième moitié du XXe siècle s’est bâtie sur des rapports économiques inégalitaires et des transferts de valeur du Sud global vers le Nord global, surtout vers les États-Unis et leurs alliés, sous diverses formes : la division internationale du travail, l’échange inégal, la coercition et l’appropriation par le marché, ou encore le mécanisme de la dette. L’ère du capitalisme algorithmique reproduit ces relations d’exploitation/extraction, mais déploie également un nouvel aspect : les transferts de valeur qui s’opèrent du Sud vers le Nord prennent désormais également la forme d’un transfert de données vers les centres que sont les États-Unis et la Chine[16], un transfert de données qui s’accompagne d’un pouvoir algorithmique de surveillance[17], de dépendance et potentiellement de gouvernementalité algorithmique[18] qui posent de nouveaux défis à la souveraineté nationale des pays du Sud. C’est ce que nous appelons le néocolonialisme algorithmique.

La « datafication » du Sud global a également des conséquences importantes dans la sphère du développement international, où l’on assiste à un transfert de pouvoir vers des acteurs du secteur privé. Les compagnies algorithmiques ont maintenant supplanté les autres joueurs traditionnels du complexe institutionnel du développement international (ONG, organisations internationales, gouvernements, banques de développement, organisations humanitaires, etc.) en ce qui concerne les informations sur les populations du Sud global. Les donateurs et autres bailleurs de fonds du développement international se tournent désormais vers des compagnies technologiques pour un accès aux données collectées par leurs applications, lesquelles sont plus nombreuses et détaillées que celles colligées par les méthodes « traditionnelles » (recensements, enquêtes, recherches scientifiques, etc.). Il en résulte que ces compagnies privées héritent d’un plus grand pouvoir de définir les enjeux de développement, de fixer des priorités et d’influencer la gouvernance des projets de développement.

De nouvelles dynamiques de pouvoir émergent ainsi entre acteurs publics et acteurs privés, ce qui soulève également des enjeux épistémologiques et éthiques. D’une part, les données extraites par les compagnies algorithmiques reflètent davantage la situation des populations « connectées » que celle des populations moins intégrées à l’économie de marché, au monde numérique et à la consommation de masse. D’autre part, la propriété des données donne aux capitalistes algorithmiques le pouvoir de voir tout en niant aux utilisatrices et utilisateurs le pouvoir de ne pas être vus. Mark Zuckerberg, par exemple, fait appel à une rhétorique philanthropique afin de promouvoir son projet de développement international « internet.org », visant à connecter gratuitement à l’Internet à l’échelle mondiale les populations défavorisées. L’intérêt de Meta dans un tel projet consiste bien sûr à s’approprier ainsi toutes les données générées par ces nouvelles connexions à grande échelle, surtout dans un contexte où la plupart des pays du Sud global visés par une telle initiative n’ont pas de législation solide concernant la propriété des données ou encore la protection de la vie privée. C’est cette logique extractive, combinée à un « solutionnisme technologique[19] » sans complexe, qui pousse IBM à vouloir utiliser l’IA afin de solutionner les problèmes en agriculture, en santé, en éducation et des systèmes sanitaires au Kenya, ou encore le géant chinois Huawei à développer environ 70 % du réseau 4G en Afrique, en plus de conclure des contrats notamment avec les gouvernements camerounais et kenyan afin d’équiper les centres de serveurs et de fournir des technologies de surveillance[20]. Les compagnies algorithmiques du Nord et de la Chine accumulent ainsi du pouvoir, de la richesse et de l’influence dans les pays du Sud global par ces formes de néocolonialisme algorithmique.

L’économie politique internationale du capitalisme algorithmique et la périphérisation

Le néocolonialisme algorithmique et les relations sino-américaines

L’avènement du capitalisme algorithmique se produit dans une conjoncture internationale de possible transition hégémonique. La croissance soutenue et parfois spectaculaire de la Chine dans les 40 dernières années se traduit désormais par une mise au défi du pouvoir unipolaire américain en place depuis la fin de la Guerre froide. La Chine est encore bien loin de l’hégémonie mondiale, mais sa montée en puissance ébranle déjà les dynamiques de pouvoir en Asie. Alors que le champ gravitationnel de l’accumulation mondiale s’est déplacé de la zone nord-atlantique vers l’Asie du Sud et du Sud-Est dans les dernières décennies[21], la Chine a développé son propre modèle de capitalisme algorithmique autoritaire et se pose désormais en rival mondial des États-Unis sur le plan de l’accumulation algorithmique et des technologies d’IA[22]. Les tensions manifestes dans cet espace de compétition internationale s’accompagnent d’un déclin soutenu du pouvoir économique des pays de l’Union européenne, pour qui le développement du capitalisme algorithmique se fait dans une relation de dépendance envers les États-Unis.

Tout comme le capital algorithmique américain déploie ses rapports capital-travail et ses modes d’exploitation/extraction dans de nouvelles configurations internationales, le capital algorithmique chinois déploie également une infrastructure technologique au fil de ses investissements internationaux, construisant des réseaux de transfert de valeur et de données en Asie, en Afrique, en Amérique latine et au Moyen-Orient, des réseaux orientés vers la Chine. Les flux mondiaux de données prennent ainsi deux directions majeures, les États-Unis et la Chine, avec l’exception notable de la Russie, le seul pays du monde autre que les États-Unis et la Chine à conserver une certaine forme de souveraineté numérique. Alors que le capital algorithmique déploie son unique configuration de mécanismes d’exploitation/extraction, des espaces du capitalisme mondial qui étaient jadis centraux dans l’accumulation du capital sont maintenant en voie de devenir périphériques.

La périphérisation

L’infrastructure sociotechnique algorithmique contemporaine imprègne de plus en plus chaque pore des chaines de valeur mondiales et approfondit les segmentations entre nations et régions au sein des espaces d’accumulation du capital. Le processus actuel de périphérisation de certains espaces du capitalisme mondial doit toutefois être remis dans un contexte historique plus long : la dépendance mondiale envers les GAFAM (et leurs contreparties chinoises) s’enracine dans des formes du droit international et des processus politiques hérités de la période néolibérale. La thèse technoféodale peut également être critiquée de ce point de vue : en décrivant un monde où les pouvoirs privés surpassent ceux des États, elle reproduit la même confusion qui caractérisait les arguments du « retrait de l’État » lors des rondes de privatisations intensives au plus fort de la période néolibérale. En fait, cette asymétrie de pouvoir est elle-même promulguée par les États sous la forme du droit, et elle résulte des positions inégales qu’occupent les différents pays en relation avec les compagnies technologiques transnationales. En ce sens, des formes de gouvernance néolibérale perdurent dans des types d’administration qui favorisent les compagnies privées et maintiennent en place l’orthodoxie budgétaire. Les politiques d’innovation demeurent ainsi largement orientées vers le secteur privé, et le système de droit de propriété intellectuelle international hérité de la période néolibérale sous-tend l’hégémonie des GAFAM aujourd’hui. En adoptant une perspective historique à plus long terme, nous voyons que la subordination d’États et de leur territoire à des compagnies transnationales n’est pas nouvelle dans le capitalisme ; en fait, il s’agit d’une condition structurelle qui distingue les pays périphériques des pays du centre.

Les « nouvelles relations de dépendance » à l’ère contemporaine se comprennent plus aisément lorsqu’on tient compte de l’histoire des monopoles intellectuels au-delà de la Californie. La vaste offensive de privatisation des actifs intangibles a débuté dans les années 1990 et s’est appuyée sur les tribunaux et les sanctions commerciales afin d’obliger les pays du Sud à se conformer au régime strict de droit de propriété intellectuelle. L’Accord de l’OMC sur les aspects des droits de propriété intellectuelle liés au commerce (ADPIC; TRIPS  en anglais) est né d’une collaboration avec des entreprises du savoir du Nord de façon à établir des unités de production partout dans le monde tout en limitant l’accès aux intangibles par l’entremise des brevets. La disponibilité de cette infrastructure pour les pays du Sud était conditionnelle à l’adoption d’une forme renouvelée de domination. De plus, bien que les États-Unis et la Communauté européenne occupaient à l’époque une position dominante dans les secteurs informatique, pharmaceutique, chimique et du divertissement, et détenaient les marques déposées les plus importantes au monde, les États-Unis, en tant que premier exportateur mondial de propriété intellectuelle, jouissaient de davantage de marge de manœuvre pour consolider leur position et celle des compagnies qui possédaient d’importants portfolios de propriété intellectuelle.

Quelques décennies plus tard, le sol a certes bougé. Le développement du néocolonialisme algorithmique modifie l’ancienne division entre les gagnants du Nord et les perdants du Sud. Le durcissement du droit de propriété intellectuelle affecte même le Nord global, surtout les pays européens ou encore le Canada, et ce, en raison d’effets à long terme de politiques de flexibilisation et d’austérité qui ont jeté les bases de la montée du capital algorithmique. Cela illustre bien la complexité des transitions historiques, qui sont autant des moments de rupture que de chevauchement d’un vieux monde qui prépare le terrain pour le nouveau. L’Europe est désormais durablement larguée dans la course aux technologies algorithmiques et à l’IA, notamment en raison de systèmes d’innovation nationaux qui demeurent largement articulés autour du leadership du secteur privé, ce qui empêche les gouvernements d’intervenir dans les jeux de la concurrence capitaliste internationale. Alors que la Chine et la Russie ont été en mesure de développer de robustes écosystèmes numériques nationaux, on constate l’absence de capital européen au sommet du secteur technologique algorithmique, et les pays européens doivent pour la plupart se fier à l’infrastructure numérique de compagnies américaines.

Alors que l’avantage industriel historique européen s’est effrité sans être remplacé par de nouvelles capacités, cela nous rappelle que la compétition dans l’ordre international est bidirectionnelle : certains pays gagnent du terrain, d’autres en perdent. Comme le rappelle Enrique Dussel[23], les relations de dépendance entre des capitaux nationaux avec des degrés d’intrants technologiques différents sont un produit de la concurrence internationale. La « dépendance » européenne découle ainsi d’une logique de compétition internationale qui a altéré la relation des pays de l’Union européenne avec les intangibles. L’expérience européenne n’est pas celle d’une transition vers un autre mode de production « technoféodal », mais celle d’un passage de l’autre côté de l’ordre capitaliste mondial, celui de la périphérie. Loin d’un « retour vers le futur » néoféodal, ce processus de périphérisation qui affecte l’Europe, mais également d’autres espaces du capitalisme mondial, est symptomatique d’une reconfiguration des relations d’exploitation/extraction dans le nouveau stade du capitalisme algorithmique.

Par Giuliana Facciolli, Étudiante à la maîtrise à l’Université York et Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia.


NOTES

L’autrice et l’auteur remercient Écosociété de sa permission de reproduire certains passages du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.

  1. Cédric Durand, Techno-féodalisme. Critique de l’économie numérique, Paris, Zones, 2020. D’autres contributions importantes à la conceptualisation des changements contemporains en lien avec le concept de féodalisme viennent entre autres de : Jodi Dean, « Communism or neo-feudalism? », New Political Science, vol. 42, no 1, 2020 ; Yanis Varoufakis, « Techno-feudalism is taking over », Project Syndicate, 28 juin 2021 ; David Graeber parle de son côté de « féodalisme managérial » dans les relations de travail contemporaines. Voir David Graeber, Bullshit Jobs, New York, Simon & Schuster, 2018; en français: Bullshit Jobs, Paris, Les liens qui libèrent, 2018.
  2. Les actifs intangibles sont des moyens de production qu’on ne peut « toucher », par exemple un code informatique, un design, une base de données. Durand, Techno-féodalisme, op. cit., p. 119.
  3. Durand, p. 97.
  4. Durand, p. 171.
  5. Pour une critique différente mais convergente, voir Martineau et Durand Folco, 2023, op. cit., p. 174-179.
  6. Martineau et Durand Folco, 2023, op. cit.
  7. L’idée des relations capitalistes comme assemblages de modes d’exploitation et d’extraction (ou expropriation) et de l’accumulation du capital comme à la fois un processus d’exploitation et de « dépossession » est inspirée de contributions de Nancy Fraser, David Harvey et David McNally : Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; David McNally, Another World is Possible. Globalization and Anti-capitalism, Winnipeg, Arbeiter Ring Publishing, 2006 ; David Harvey, Le nouvel impérialisme, Paris, Les Prairies ordinaires, 2010.
  8. Jonathan Martineau et Jonathan Durand Folco, « Paradoxe de l’accélération des rythmes de vie et capitalisme contemporain : les catégories sociales de temps à l’ère des technologies algorithmiques », Politique et Sociétés, vol. 42, no 3, 2023.
  9. NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft.
  10. Antonio A. Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019 ; Jonathan Martineau et Jonathan Durand Folco, « Les quatre moments du travail algorithmique : vers une synthèse théorique », Anthropologie et Sociétés, vol. 47, no 1, 2023 ; Gina Neff, Labor Venture. Work and the Burden of Risk in Innovative Industries, Cambridge, MIT Press, 2012.
  11. Billy Perrigo, « Exclusive : OpenAI used kenyan workers on less than $2 per hour to make ChatGPT less toxic », Time, 18 janvier 2023.
  12. Parfois traduit en français par « externalisation socialement responsable ».
  13. Phil Jones, Work Without the Worker. Labour in the Age of Platform Capitalism, Londres,Verso, 2021.
  14. Linnet Taylor et Dennis Broeders, « In the name of development : power, profit and the datafication of the global South », Geoforum, vol. 64, 2015, p. 229‑237.
  15. Ce phénomène a certains précédents, notamment la compagnie IBM qui s’appropriait dès les années 1970 les données transitant par ses systèmes informatiques installés dans certains pays du Sud global. Il se déploie toutefois aujourd’hui à une échelle beaucoup plus grande.
  16. Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2022.
  17. Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, vol. 1, n° 177, 2013, p. 163‑96.
  18. Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014.
  19. Mohammed Yusuf, « China’s reach into Africa’s digital sector worries experts », Voice of America, 22 octobre 2021.
  20. David McNally, Panne globale. Crise, austérité et résistance, Montréal, Écosociété, 2013.
  21. Kai-Fu Lee, AI Superpowers: China, Silicon Valley, and the New World Order, Boston, Houghton Mifflin Harcourt, 2018.
  22. Enrique Dussel, Towards an Unknown Marx. A Commentary on the Manuscripts of 1861-63, Abingdon, Taylor & Francis, 2001.

 

Vers une théorie globale du capitalisme algorithmique

19 avril, par Rédaction

La littérature sur l’intelligence artificielle (IA) et les algorithmes est aujourd’hui foisonnante, c’est le moins qu’on puisse dire. Toutefois, la plupart des analyses des impacts de l’IA abordent différents domaines de façon isolée : vie privée, travail, monde politique, environnement, éducation, etc. Peu de contributions traitent de façon systématique des rapports complexes qui se tissent entre le mode de production capitaliste et les algorithmes. Notre hypothèse de départ est qu’on ne peut comprendre le développement fulgurant des algorithmes sans comprendre les reconfigurations du capitalisme, et vice versa.

Pour saisir adéquatement les implications sociales, politiques et économiques des machines algorithmiques, il faut situer ces innovations dans le contexte de mutation du capitalisme des deux premières décennies du XXIe siècle. Nous suggérons que la valorisation des données massives et le déploiement rapide de l’IA grâce aux avancées de l’apprentissage automatique (machine learning) et de l’apprentisage profond (deep learning) s’accompagnent d’une mutation importante du capitalisme, et ce, au même titre que la révolution industrielle qui a jadis propulsé l’empire du capital au XIXe siècle. Nous sommes entrés dans un nouveau stade du capitalisme basé sur une nouvelle logique d’accumulation et une forme de pouvoir spécifique, que nous avons baptisé capital algorithmique. Ce terme désigne un phénomène multidimensionnel : il s’agit à la fois d’une logique formelle, d’une dynamique d’accumulation, d’un rapport social et d’une forme originale de pouvoir fondé sur les algorithmes. Il s’agit de conceptualiser la convergence entre la logique d’accumulation du capital et l’usage accru de nouveaux outils algorithmiques. Par contraste, l’expression « capitalisme algorithmique » renvoie plutôt à la formation sociale dans sa globalité, c’est-à-dire l’articulation historique d’un mode de production et d’un contexte institutionnel, ce que Nancy Fraser appelle un « ordre social institutionnalisé[2] ». Il faut donc distinguer la société capitaliste dans laquelle nous sommes, et le rapport social spécifique qui se déploie d’une multitude de manières.

Si la littérature a produit une panoplie d’appellations qui mettent l’accent sur différents aspects du capitalisme contemporain (capitalisme de surveillance, de plateforme, etc.), le concept de « capital algorithmique » comporte plusieurs avantages heuristiques afin de saisir la logique du nouveau régime d’accumulation capitaliste. Il permet d’abord de replacer le travail et la production au centre de l’analyse, mais également d’identifier ce qui, à notre avis, constitue le réel cœur de la logique d’accumulation du capitalisme aujourd’hui et de la relation sociale qui s’y déploie : l’algorithme. En effet, l’algorithme est le principe structurant du nouveau régime d’accumulation capitaliste qui prend appui sur, réarticule, et dépasse le néolibéralisme financiarisé. Premièrement, l’algorithme devient le mécanisme dominant d’allocation du « travail digital » (digital labor). Deuxièmement, l’algorithme ou l’accumulation algorithmique devient le mécanisme dominant de détermination du processus de production. Troisièmement, les algorithmes et les données qui leur sont associées deviennent un objet central de la concurrence entre les entreprises capitalistes. Quatrièmement, les algorithmes médiatisent les relations sociales, notamment par l’entremise des réseaux sociaux et des plateformes numériques. Cinquièmement, les algorithmes médiatisent l’accès à l’information et à la mémoire collective. Sixièmement, l’algorithme génère des revenus en participant à la production de marchandises, ou en tant que mécanisme participant de l’extraction de rentes différentielles. Septièmement, au-delà des entreprises privées, nombre d’organisations et de sphères sociales, allant des pouvoirs publics, services de police, complexes militaires, aux ONG de développement, en passant par les soins de santé, l’éducation, le transport, les infrastructures publiques, etc., ont recours à des technologies algorithmiques afin d’exercer leur pouvoir ou leurs activités. C’est la raison pour laquelle l’algorithme, bien davantage que le « numérique », le « digital », la « surveillance » ou autre constitue le cœur du nouveau régime d’accumulation : il médiatise les relations sociales, préside à la (re)production socioéconomique et diffuse sa logique prédictive dans la société contemporaine.

Si l’expression « capitalisme numérique » peut servir à désigner de manière large les multiples façons dont les technologies numériques influencent le capitalisme et inversement, cette catégorisation demeure trop générale et abstraite pour bien saisir les mécanismes et métamorphoses à l’œuvre au sein des sociétés du XXIe siècle. Plus précisément, l’hypothèse du capitalisme algorithmique suggère qu’il existe une rupture entre deux phases ou moments du capitalisme numérique. Alors que la période qui part de la fin des années 1970 correspond à l’émergence du capitalisme néolibéral, financiarisé et mondialisé, dans la première décennie du XXIe siècle, avec l’arrivée de nouvelles technologies comme l’ordinateur personnel et l’Internet de masse, une série de transformations a produit un effet de bascule ; les médias sociaux, les téléphones intelligents, l’économie de plateformes, les données massives et la révolution de l’apprentissage automatique ont convergé avec la crise financière mondiale de 2007-2008 pour accélérer le passage vers une reconfiguration du capitalisme où la logique algorithmique joue un rôle déterminant.

Pour éviter une conception trop mécanique et réductrice du capitalisme algorithmique, il importe de positionner notre perspective parmi la littérature foisonnante des théories critiques du capitalisme contemporain. Comme il existe une variété de positions entourant les relations complexes entre les technologies et le système capitaliste, nous pouvons distinguer trois principaux axes de débats : l’IA comme outil du capital, la nature du capitalisme et les possibilités d’émancipation.

L’IA, outil du capital ?

Premièrement, dans quelle mesure les algorithmes sont-ils des outils soumis à la logique capitaliste ? Selon une première position acritique, les algorithmes possèdent leur propre réalité, fonctions et usages potentiels, de sorte qu’il est possible de les analyser et de les développer sans faire référence au mode de production capitaliste, à ses impératifs d’accumulation, à ses modes d’exploitation et à ses contraintes spécifiques. Cette vision dominante des algorithmes, largement partagée au sein des milieux scientifiques, industriels et médiatiques, inclut les théories courantes de l’IA, l’éthique des algorithmes ou encore les positions techno-optimistes qui considèrent que les données massives, les plateformes et l’apprentissage automatique pourront créer un monde plus efficace, libre et prospère. Si les auteurs n’hésitent pas à reconnaitre les risques propres à ces technologies, l’objectif ultime est de « harnacher » la révolution algorithmique afin qu’elle soit au service du bien commun, ou encore qu’elle permette de réinventer le capitalisme à l’âge des données massives[3].

Face à ces positions acritiques, des théories critiques n’hésitent pas à dénoncer cette fausse indépendance de la technique et à voir dans les algorithmes un nouvel outil au service du capital. La question de savoir s’il existe plusieurs usages possibles des données massives et de l’IA est matière à débat, mais toutes les approches critiques du capitalisme partagent un constat commun : ce sont les grandes entreprises du numérique qui contrôlent en bonne partie le développement de ces technologies. En effet, ce sont elles qui possèdent les droits de propriété intellectuelle, les budgets de recherche, les centres de données qui stockent nos données personnelles, de même que le temps de travail des scientifiques et celui des lobbyistes qui font pression auprès des gouvernements pour empêcher des législations contraires à leurs intérêts[4]. Nous soutenons la thèse voulant que les technologies algorithmiques soient principalement ou surtout développées en tant qu’outils d’accumulation du capital, tout en étant aussi utilisées dans une variété de sphères de la vie sociale avec des conséquences qui débordent largement cette finalité économique. Sans être réductibles à leur fonction lucrative, les données massives et les algorithmes sont appropriés, façonnés et déployés selon une logique qui répond aux impératifs du mode de production capitaliste et contribuent à modifier ce système en retour.

Nous croyons d’ailleurs, comme d’autres, que les craintes associées aux dangers de l’IA, des robots et des algorithmes constituent souvent au fond des anticipations de menaces liées au fonctionnement du capitalisme. Comme le note l’écrivain de science-fiction Ted Chiang, « la plupart de nos craintes ou de nos angoisses à l’égard de la technologie sont mieux comprises comme des craintes ou des angoisses sur la façon dont le capitalisme va utiliser la technologie contre nous. Et la technologie et le capitalisme ont été si étroitement imbriqués qu’il est difficile de distinguer les deux[5] ». Certaines personnes craignent par exemple que l’IA finisse un jour par nous dominer, nous surpasser ou nous remplacer. Or, derrière le scénario catastrophe d’une IA toute-puissante version Terminator[6] ou de la « superintelligence » présentant un risque existentiel pour l’humanité du philosophe Nick Bostrom se cache la domination actuelle des entreprises capitalistes. Le problème n’est pas l’IA en soi, mais le rapport social capitaliste qui l’enveloppe et qui détermine en bonne partie sa trajectoire. Un autre problème se surajoute : le capital algorithmique est lui-même imbriqué dans d’autres rapports sociaux comme le patriarcat, le colonialisme, le racisme, la domination de l’État.

Certains diront qu’il faut abolir l’IA – ou certaines de ses applications –, saboter les machines algorithmiques, refuser en bloc la technologie, mais ce sont là des réactions qui s’attaquent seulement à la pointe de l’iceberg. Nous sommes confrontés aujourd’hui à une dynamique similaire à celle que Marx observait à son époque, celle de la révolution industrielle où la machine commençait déjà à remplacer une partie du travail humain. Aujourd’hui, la « quatrième révolution industrielle », célébrée par Klaus Schwaub, représente au fond une révolution technologique qui relance la dynamique d’industrialisation, mais à l’aide de machines algorithmiques et de systèmes décisionnels automatisés. La réaction néoluddite qui vise à détruire ces machines est tout à fait normale et prévisible, mais il faut voir ici qu’il est vain d’avoir peur de ChatGPT, des robots ou des algorithmes. Ce qu’il faut, au fond, c’est remettre en question l’ensemble des rapports sociaux qui reproduisent la domination qui se manifeste aujourd’hui en partie par le pouvoir des algorithmes.

Qu’est-ce que le capitalisme ?

Qu’entend-on exactement lorsqu’on parle de « capitalisme » ? S’agit-il d’une économie de marché où les individus se rencontrent pour échanger des biens et services, un système économique basé sur la propriété privée des moyens de production et l’exploitation du travail par les capitalistes, ou encore une dynamique d’accumulation fondée sur la logique abstraite de l’autovalorisation de la valeur qui tend à transformer le capital en « sujet automate » ? Selon la perspective que l’on adopte sur la nature du capitalisme, l’analyse du rôle exact des algorithmes sera bien différente.

Lorsque les institutions du capitalisme comme l’entreprise privée et le marché sont tenus pour acquis, l’usage des données et des algorithmes sera généralement analysé à travers la lunette des applications potentielles pour améliorer la performance des entreprises. Les algorithmes seront conçus comme des « machines prédictives » permettant d’accomplir une multitude de tâches : réduire les coûts de production, améliorer le processus de travail, optimiser les chaines de valeur, bonifier l’expérience client, guider les décisions stratégiques, etc.[7]

Si on adopte plutôt une perspective critique du capitalisme dans le sillage du marxisme classique, on aura plutôt tendance à mettre en lumière les dynamiques d’appropriation privée des nouvelles technologies, les rapports d’exploitation et les résistances des classes opprimées. Cette conception du capitalisme aura tendance à voir le monde numérique comme un « champ de bataille[8] ». En effet, le capitalisme algorithmique repose en bonne partie sur le pouvoir prédominant des géants du Web, l’exploitation du travail et de l’expérience humaine; il renforce différentes tensions, inégalités et contradictions du monde social, et de nombreux fronts de résistance luttent contre ses effets pernicieux : mouvements pour la protection de la vie privée, mobilisations contre Uber, Amazon et Airbnb, sabotage de dispositifs de surveillance, Data 4 Black Lives[9], etc. Cela dit, les analyses uniquement axées sur la « lutte des classes » et les approches inspirées du marxisme classique ont tendance à réduire le capitalisme numérique à un affrontement entre les géants du Web – les capitalistes – et les femmes et hommes « utilisateurs » ou « travailleurs du clic » qui se font exploiter ou voler leurs données. On omet ainsi l’analyse conceptuelle minutieuse des rouages de l’accumulation capitaliste et des rapports sociaux qui structurent la société capitaliste dans son ensemble et sur laquelle il faut se pencher.

C’est ce qu’une troisième approche critique, distincte du marxisme classique, cherche à faire : adopter une vision holistique qui considère le capital comme « une totalité qui prend la forme d’une structure quasi objective de domination […] une situation d’hétéronomie sociale qui prend la forme d’un mode de développement aveugle, incontrôlé et irréfléchi sur lequel les sociétés n’ont aucune prise politiquement[10] ». Dans la lignée des critiques marxiennes de la valeur, l’analyse du capitalisme se concentre sur les catégories centrales de la société capitaliste comme le travail abstrait, la marchandise et la valeur. La critique du capitalisme comme « totalité sociale aliénée » implique donc la critique radicale de la valeur et des « médiations sociales fétichisées », de « l’imaginaire communicationnel du capitalisme cybernétique » et de la « révolution culturelle de l’idéologie californienne » qui nous mènerait vers un « monde numériquement administré[11] ». Or, ces approches totalisantes, malgré leurs prouesses théoriques, ont tendance à éluder les conflits, résistances et possibilités d’émancipation présentes dans le développement économique.

Ces deux approches critiques marxiennes, prenant appui l’une sur les conflits de classes et l’autre sur la logique totalisante du capital, ont donc chacune leurs forces et leurs faiblesses. Selon nous, le capital algorithmique tend à coloniser l’ensemble des sphères de l’existence humaine par une dynamique d’accumulation basée sur l’extraction des données et le développement accéléré de l’IA. Le capitalisme ne se réduit pas à un rapport de force entre classes antagonistes : il représente bel et bien une totalité sociale. Or, il faut également éviter le piège fataliste des approches surplombantes et réifiantes, et analyser en détail les rapports de pouvoir et les conflits qui se déploient dans le sillon de la montée du capital algorithmique. Il est donc nécessaire, pour une théorie critique des algorithmes, d’articuler les deux logiques distinctes, mais complémentaires du capital : « la logique du capital comme système achevé » et « la logique stratégique de l’affrontement[12] ».

Quelles possibilités d’émancipation?

L’accent plus ou moins grand porté sur la logique du capital (comme dynamique totalisante) ou la stratégie d’affrontement (faisant intervenir l’agentivité des acteurs) implique une évaluation différenciée des possibilités d’émancipation sous le capitalisme algorithmique. Des approches centrées sur la lutte des classes soutiennent parfois que l’impact de l’IA est grandement exagéré par les capitalistes, lesquels visent à effrayer le mouvement ouvrier des dangers imminents de l’automation. Astra Taylor soutient par exemple que les récits catastrophistes liés à l’arrivée des robots et du chômage technologique de masse sont des tentatives délibérées d’intimider et de discipliner les travailleurs et travailleuses en brandissant le discours idéologique de ce qu’elle nomme la fauxtomation[13]. Sans doute, des capitalistes utilisent-ils cette rhétorique de la sorte. Nous aurions tort cependant de minimiser l’impact de l’IA sur le processus de travail, les emplois et des secteurs entiers de l’économie. Même si les estimations sur le chômage engendré par l’automation varient grandement (de 9 % à 50 % en fonction des méthodologies utilisées), il faut bien reconnaitre la tendance du capital algorithmique à remplacer les humains par les robots, ou du moins à les compléter, surveiller et contrôler par de nouveaux moyens algorithmiques sophistiqués. S’il pouvait achever sa logique en totalité, le capital algorithmique viserait à développer un capitalisme pleinement automatisé.

À l’opposé du spectre, les auteurs du courant « accélérationniste » évaluent positivement l’horizon d’une automation généralisée, pour autant qu’elle soit combinée à une socialisation des moyens de production[14]. Les technologies algorithmiques jetteraient ainsi les bases d’une économie postcapitaliste au-delà du travail[15]. D’autres courants comme le xénoféminisme et les théoriciens du « capitalisme cognitif » soulignent également le potentiel émancipateur du travail immatériel, des pratiques de collaboration, de l’hybridation humain-machine et des nouvelles technologies[16]. À l’instar de Lénine, selon qui « le communisme, c’est le gouvernement des soviets plus l’électrification du pays », on pourrait dire que les courants anticapitalistes techno-optimistes considèrent aujourd’hui que le cybercommunisme signifie « le revenu de base plus l’intelligence artificielle[17] ». Cela n’est pas sans rappeler la position de Trotsky sur le taylorisme, « mauvais dans son usage capitaliste et bon dans son usage socialiste ». On trouve la vision la plus aboutie de ce marxisme accélérationniste chez Aaron Bastani et sa vision d’un « communisme de luxe entièrement automatisé » (fully automated luxury communism), qui propose l’utopie d’une économie postrareté par le plein déploiement des forces productives algorithmiques au-delà des contraintes de la logique capitaliste. Dans cette perspective, le capital algorithmique creuserait sa propre tombe, en laissant miroiter la possibilité d’un monde pleinement automatisé, basé sur l’extraction de minerai sur les astéroïdes, la production d’aliments synthétiques et la réduction drastique du travail humain[18]. Cette vision parait digne d’un Jeff Bezos ou d’un Elon Musk qui porterait soudainement une casquette socialiste.

Cela dit, il semble bien naïf de croire que l’automation algorithmique soit mauvaise sous les GAFAM, mais bonne sous le socialisme. Loin de poser les bases d’une société au-delà de la misère et des inégalités, le capital algorithmique automatise les différentes formes de domination, contribue à la surexploitation des ressources naturelles et siphonne notre temps d’attention grâce à ses multiples technologies addictives. En d’autres termes, l’extraction toujours plus intense des données et le développement actuel des algorithmes contribuent à créer les bases d’un capitalisme pleinement automatisé, accélérant la pénurie de temps et de ressources naturelles.

Enfin, il serait trompeur de se limiter à la logique du capital, en omettant les stratégies d’affrontement qui peuvent dégager des possibilités d’émancipation pour dépasser l’horizon du capitalisme automatisé. À la différence des courants technosceptiques et néoluddites qui refusent en bloc les technologies algorithmiques, il existe différentes perspectives de résistance et des stratégies anticapitalistes visant une potentielle réappropriation collective des données et des algorithmes[19]. Il est possible d’envisager les potentialités et limites liées à la planification algorithmique dans une optique d’autolimitation écologique, de justice sociale et de démocratie radicale[20].

Le capitalisme algorithmique comme ordre social institutionnalisé

Nancy Fraser a développé durant les dernières années une théorie globale du capitalisme qui comprend non seulement un mode de production économique spécifique, mais aussi une articulation avec la nature, les pouvoirs publics et le travail de reproduction sociale[21]. Cette reconceptualisation permet de saisir l’imbrication du capitalisme avec les inégalités de genre et la crise du care (les soins), les dynamiques d’expropriation et d’exploitation au sein du capitalisme racialisé, ainsi que les dynamiques complexes qui alimentent la crise écologique, laquelle exacerbe les inégalités raciales, économiques et environnementales. Ce cadre conceptuel large inspiré du féminisme marxiste permet de saisir l’enchevêtrement des multiples systèmes de domination (capitalisme, patriarcat, racisme, etc.) et d’éclairer les « luttes frontières » présentes dans différents recoins du monde social. La perspective critique de Fraser nous semble ainsi la meilleure porte d’entrée pour brosser un portrait systématique de la société capitaliste qui nous permettra ensuite de mieux comprendre comment les technologies algorithmiques reconfigurent celle-ci.

Nancy Fraser propose de voir le capitalisme comme un ordre social institutionnalisé. Que cela signifie-t-il ? Fraser définit d’abord la production capitaliste en la définissant par quatre caractéristiques fondamentales : 1) la propriété privée des moyens de production ; 2) le marché du travail ; 3) la dynamique d’accumulation ; 4) l’allocation des facteurs de production et du surplus social par le marché. Le capital algorithmique reconfigure les modèles d’entreprise (hégémonie des plateformes numériques), les formes du travail (travail digital et travail algorithmique), la dynamique d’accumulation (par l’extraction de données et les algorithmes), ainsi que l’apparition de nouveaux marchés (marchés des produits prédictifs, etc.). Mais cette caractérisation sommaire du système économique capitaliste reste largement insuffisante.

Selon Fraser, la « production économique » repose en fin de compte sur l’exploitation de trois sphères « non économiques » : la nature, le travail de reproduction sociale et le pouvoir politique, qui représentent ses conditions de possibilité. Loin de nous concentrer sur la seule économie capitaliste, il faut s’attarder sur les différentes sphères de la société capitaliste à l’ère des algorithmes. L’avantage de la perspective de Fraser est de décentrer l’analyse de la contradiction économique capital/travail pour mettre en lumière les multiples tendances à la crise du capitalisme sur le plan social, démocratique et écologique : « La production capitaliste ne se soutient pas par elle-même, mais parasite la reproduction sociale, la nature et le pouvoir politique. Sa dynamique d’accumulation sans fin menace de déstabiliser ses propres conditions de possibilité[22]. » Aujourd’hui, le capital algorithmique cherche à résoudre ses multiples crises et contradictions par l’usage intensif des données et de l’intelligence artificielle : innovations technologiques pour accélérer la transition écologique (efficacité énergétique, agriculture 4.0, voitures autonomes, robots pour nettoyer les océans), soutien des tâches domestiques et de reproduction sociale (maisons intelligentes, plateformes de services domestiques, robots de soins pour s’occuper des personnes ainées et des enfants), solutions des crises de gouvernance (ville intelligente, optimisation de l’administration publique, police prédictive, dispositifs de surveillance), etc.

Cela dit, la théorie de Fraser souffre d’un oubli majeur : elle n’aborde pas du tout la question technologique. Elle analyse l’évolution historique du capitalisme à travers ses différents stades ou régimes d’accumulation, mais elle s’arrête au stade du capitalisme néolibéral, financiarisé et mondialisé. Or, il semble bien que l’infrastructure technologique représente une autre condition de possibilité du capital, que Fraser omet de mettre dans son cadre théorique : sans système de transport et de communication, sans machines et sans outils techniques, il semble difficilement possible de faire fonctionner le capitalisme, y compris dans ses variantes mercantiles et préindustrielles. Autrement dit, Fraser semble avoir oublié les conditions générales de production dans sa théorie globale du capitalisme, y compris les technologies algorithmiques qui contribuent aujourd’hui à sa métamorphose. Pour combler cette lacune, il nous semble donc essentiel de compléter le portrait avec les contributions névralgiques de Shoshana Zuboff et de Kate Crawford, qui jettent un regard perçant sur les dimensions technologiques de l’économie contemporaine, laquelle repose de plus en plus sur la surveillance et sur l’industrie extractive de l’intelligence artificielle.

Le capitalisme de surveillance comme industrie extractive planétaire

Le livre L’âge du capitalisme de surveillance de Shoshana Zuboff offre un portrait saisissant des mutations de l’économie numérique qui a vu naitre l’émergence de nouveaux modèles d’affaires basés sur l’extraction de données personnelles et le déploiement d’algorithmes centrés sur la prédiction de comportements futurs[23]. Alors que le développement technologique des ordinateurs et de l’Internet aurait pu mener à diverses configurations socioéconomiques, une forme particulière de capitalisme a pris le dessus au début des années 2000 avant de dominer complètement le champ économique et nos vies. Voici comment Zuboff définit ce nouveau visage du capitalisme contemporain :

Le capitalisme de surveillance revendique unilatéralement l’expérience humaine comme matière première gratuite destinée à être traduite en données comportementales. Bien que certaines données soient utilisées pour améliorer des produits ou des services, le reste est déclaré comme un surplus comportemental propriétaire qui vient alimenter des chaines de production avancées, connues sous le nom d’« intelligence artificielle », pour être transformé en produits de prédiction qui anticipent ce que vous allez faire, maintenant, bientôt ou plus tard. Enfin, ces produits de prédiction sont négociés sur un nouveau marché, celui des prédictions comportementales, que j’appelle les marchés de comportements futurs. Les capitalistes de surveillance se sont énormément enrichis grâce à ces opérations commerciales, car de nombreuses entreprises sont enclines à miser sur notre comportement futur[24].

Zuboff fournit une excellente porte d’entrée pour comprendre la mutation fondatrice du capital à l’aube du XXIe siècle : l’extraction et la valorisation des données par le biais d’algorithmes se retrouvent maintenant au cœur du processus d’accumulation du capital. Elle offre aussi une deuxième contribution majeure. Selon elle, le capital de surveillance n’est pas réductible à un simple processus économique ; il donne lieu à l’émergence d’une nouvelle forme de pouvoir inquiétante : le pouvoir instrumentarien, soit « l’instrumentation et l’instrumentalisation du comportement à des fins de modification, de prédiction, de monétisation et de contrôle[25] ». Cette « gouvernementalité algorithmique » ne sert pas seulement à extraire de la valeur par le biais de publicités ciblées qui anticipent nos comportements futurs ; ces machines prédictives visent aussi à influencer, à contrôler, à nudger (donner un coup de pouce) et à manipuler nos conduites quotidiennes. Cette nouvelle logique de pouvoir dans différentes sphères de la vie sociale, économique et politique confère à cette configuration du capitalisme sa plus grande emprise sur les rapports sociaux et notre relation au monde.

Une limite de l’approche zuboffienne est qu’elle insiste beaucoup, voire peut-être trop, sur la question de la surveillance et de l’appropriation des données personnelles. Sa théorie a le mérite de décortiquer la nouvelle logique d’accumulation du capital et les mécanismes inédits de contrôle algorithmique des individus, mais elle finit par déboucher sur le « droit au temps futur », le « droit au sanctuaire », et autres revendications qui se limitent à la protection de la vie privée. La théorie de Zuboff ne permet pas vraiment de thématiser les injustices en termes de classe, de sexe et de « race » qui sont amplifiées par la domination algorithmique. Elle suggère un recadrage du capitalisme, soulignant la contradiction fondamentale entre l’extraction des données et le respect de la vie privée. La critique de l’exploitation du travail par le capital chez Marx est ainsi remplacée par la critique de l’extraction/manipulation de la vie intime des individus dans leur quotidien. Ce n’est donc pas un hasard si Zuboff passe sous silence le rôle du travail, l’extraction des ressources naturelles et les enjeux géopolitiques dans son cadre d’analyse. Pour nous, la surveillance ne représente que l’un des nombreux visages du capital algorithmique, qui a des conséquences beaucoup plus étendues.

C’est la raison pour laquelle il nous semble essentiel de compléter ce premier aperçu de Zuboff par un portrait élargi des nombreuses ramifications de l’IA dans le monde contemporain à travers l’approche riche et originale de Kate Crawford. Celle-ci propose de dépasser l’analyse étroite de l’IA qui est devenue monnaie courante de nos jours et qui la voit comme une simple forme de calcul, un outil comme le moteur de recherche de Google ou encore ChatGPT. Bien que ces multiples descriptions ne soient pas fausses, elles dissimulent néanmoins toute une infrastructure complexe en concentrant notre attention sur des technologies isolées, abstraites, rationnelles et désincarnées :

Au contraire, l’intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, d’énergies fossiles, de travail humain, d’infrastructures, de logistiques, d’histoires et de classifications. Les systèmes d’IA ne sont pas autonomes, rationnels, ou capables de discerner sans un entraînement computationnel extensif et intensif basé sur de larges ensembles de données, de règles et de récompenses prédéfinies. Et compte tenu du capital requis pour bâtir l’IA à large échelle et des manières de voir qui optimisent celle-ci, les systèmes d’IA sont ultimement conçus pour servir les intérêts établis dominants. En ce sens, l’intelligence artificielle entre dans le registre du pouvoir[26].

Pour Crawford, on ne peut comprendre les algorithmes adéquatement, d’un point de vue strictement technique, sans les insérer au sein de structures et systèmes sociaux plus larges. Crawford élargit notre champ de vision en montrant que l’IA repose sur l’extraction généralisée de minerais, d’énergie, de travail humain, de données, d’affects et d’éléments de nos institutions publiques. C’est pourquoi elle propose de concevoir l’IA d’un point de vue matérialiste et holistique, en évitant les pièges d’une vision trop formelle et idéaliste telle que véhiculée par l’éthique des algorithmes.

Néanmoins, cette vision donne un aperçu encore trop parcellaire et fragmenté de ce système en voie de consolidation. La riche cartographie de Crawford donne à voir les multiples visages, territoires et manifestations de ce phénomène complexe, mais sans fournir une grille d’analyse, un cadre conceptuel ou une théorie globale permettant d’expliquer et de comprendre ces différents enjeux dans un tout cohérent. C’est pourquoi il nous semble essentiel de comprendre l’enchevêtrement complexe entre la technologie, le pouvoir et le capital au sein d’une théorie globale du capitalisme algorithmique qu’il reste à déployer[27].

Par Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia et Jonathan Durand Folco, professeur à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul.


NOTES

Cet article est une version remaniée de la thèse 2 du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.

  1. Nancy Fraser et Rahel Jaeggi, Capitalism. A Conversation in Critical Theory, Cambridge, Polity Press, 2018.
  2. Viktor Mayer-Schönberger et Thomas Ramge, Reinventing Capitalism in the Age of Big Data, New York, Basic Books, 2018.
  3. Voir par exemple Nick Dyer-Witheford, Atle Mikkola Kjøsen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Pluto, 2019.
  4. Cité par Ezra Klein, « The imminent danger of A.I. is one we’re not talking about », The New York Times, 26 février 2023.
  5. NDLR. Terminator est un film américain de science-fiction sorti en 1984 où le Terminator est une créature robotisée programmée pour tuer.
  6. Ajay Agrawal, Joshua Gans et Avi Goldfarb, Prediction Machines. The Simple Economics of Artificial Intelligence, Boston, Harvard Business Review Press, 2018.
  7. Philippe de Grosbois, Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique, Montréal, Écosociété, 2018, p. 30.
  8. NDLR. Mouvement de militants et militantes et de scientifiques dont la mission est d’utiliser la science des données pour améliorer la vie des Noirs·es.
  9. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 38.
  10. Ibid., p. 60.
  11. Pierre Dardot et Christian Laval, Marx, prénom : Karl, Paris, Gallimard, 2012.
  12. Astra Taylor, « The automation charade », Logic, n5, 2018.NDLR. Fauxtomation est un mot inventé par Taylor et formé de « faux » et d’« automatisation » pour exprimer comment le travail accompli grâce à l’effort humain est faussement perçu comme automatisé.
  13. Nick Srnicek et Alex Williams, Inventing the Future. Postcapitalism and a World Without Work, Brooklyn, Verso, 2015.
  14. Paul Mason, Postcapitalism. A Guide to Our Future, Londres, Allen Lane, 2015.
  15. Helen Hester, Xenofeminism, Cambridge (UK) /Medford (MA), Polity Press, 2018 ; Laboria Cuboniks (Collectif), The Xenofeminist Manifesto. A Politics for Alienation, Brooklyn, Verso, 2018 ; Michael Hardt et Antonio Negri, Empire, Paris, Exils, 2000 ; Yann Moulier Boutang, Le capitalisme cognitif. La nouvelle grande transformation, Paris, Amsterdam, 2007.
  16. Dyer-Witheford, Kjøsen et Steinhoff, Inhuman Power, 2019, op. cit., p. 6.
  17. Aaron Bastani, Fully Automated Luxury Communism, Londres, Verso, 2020.
  18. Voir à ce sujet, Jonathan Durand Folco et Jonathan Martineau, « Cartographier les résistances à l’ère du capital algorithmique », Revue Possibles, vol. 45, n° 1, 2021, p. 20-30.
  19. Cédric Durand et Razmig Keucheyan, « Planifier à l’âge des algorithmes », Actuel Marx, n° 1, 2019, p. 81-102.
  20. Nancy Fraser, « Behind Marx’s hidden abode », New Left Review, n86, 2014 ; Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; Nancy Fraser, « Contradictions of capital and care », Dissent, vol. 63, no 4, 2016, p. 30‑37 ; Fraser et Jaeggi, Capitalism, 2018, op. cit ; Nancy Fraser, « Climates of capital », New Left Review, no 127, 2021.
  21. Fraser et Jaeggi, Capitalism, 2018, op. cit., p. 22.
  22. Soshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  23. Ibid., p. 25.
  24. Ibid., p. 472.
  25. Kate Crawford, Contre-atlas de l’intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA, Paris, Zulma, 2022, p. 8.
  26. C’est là l’objet des 20 thèses de notre livre, Le capital algorithmique, 2023, op. cit.

 

Membres