Nouveaux Cahiers du socialisme

Faire de la politique autrement, ici et maintenant...

Quelques leçons féministes marxistes pour penser l’intelligence artificielle autrement

23 mai, par Rédaction

Dès le début, les féministes marxistes qui voulaient une émancipation féministe et antiraciste se sont heurtées aux limites que représentaient les contre-propositions socialistes au régime capitaliste. Plus tard, elles ont aussi dû considérer des courants anti-technologiques qui tendaient à essentialiser le lien des femmes à la nature. Ces réflexions se sont consolidées dans le courant théorique de la reproduction sociale. Dans le présent texte, je reviens sur certains des travaux qui en sont issus afin d’envisager d’autres voies aux technologies d’intelligence artificielle (IA) qui dévalorisent le travail reproductif. Ils permettent de critiquer simultanément le rôle des technologies dans la précarisation des activités de soin tout en ne masquant pas les insuccès de leur contrôle par l’État. J’illustrerai ces avenues à partir des propositions que j’ai formulées dans le cadre d’une étude publiée par l’Institut de recherche et d’informations socioéconomiques (IRIS) qui explorait les conditions de production de l’IA dans le secteur de la santé[1]. J’envisagerai de quelle manière, en se référant aux théories de la reproduction sociale, on pourrait penser et produire des innovations respectant les objectifs de réduction des inégalités en santé dans le réseau public.

Le numérique comme vecteur de marchandisation

Dès les années 1970, les théories de la reproduction sociale ont traité de l’organisation du travail en usine, de la bombe atomique et même des ordinateurs. Plus récemment, les travaux sur les biotechnologies ont ramené cet horizon théorique à l’avant-plan. Dans son plus récent ouvrage, Silvia Federici, figure de proue de ce courant, offre une courte réflexion sur les nouvelles technologies numériques et les robots de soins. Elle affirme : « Les techniques – et plus particulièrement les techniques de communication – jouent incontestablement un rôle dans l’organisation des tâches domestiques et constituent aujourd’hui un élément essentiel de notre vie quotidienne[2] ». À l’image d’autres marxistes avant elle, Federici voit les technologies de communication comme des moyens de production, à la différence qu’elles s’intègrent directement dans l’organisation du travail reproductif. Celui-ci est considéré comme l’envers du travail productif. Sa dévalorisation systématique est l’une des clés de voûte de l’organisation de l’exploitation capitaliste. Il comprend des activités comme préparer les repas, s’occuper des personnes vulnérables ou assurer le maintien des relations affectives. Pour Federici, les technologies de communication sont des outils de travail parce qu’elles sont mobilisées dans le cadre de ces activités économiques essentielles de reproduction matérielle et sociale de la vie humaine même si elles sont souvent peu ou pas rémunérées.

Sarah Sharma, une autrice qui s’intéresse aux enjeux de genre et de race liés à la valorisation du temps, accorde elle aussi un rôle économique au numérique dans le cadre du travail reproductif. Dans un essai sur l’économie de plateforme[3], elle s’attarde à TaskRabbit, une application mobile qui organise très précisément la vie quotidienne. Celle-ci permet de déléguer l’exécution de certaines tâches ordinaires à des inconnu·e·s, moyennant rémunération. Les utilisateurs/employeurs affichent en ligne de menus travaux à faire comme aller chercher un objet acheté sur la plateforme d’échange MarketPlace, promener le chien ou aller nettoyer les planchers avant une réception. Historiquement, ce type de travail a été inégalement réparti au sein des ménages. Il tend désormais à être externalisé vers des personnes socioéconomiquement précaires qui sont, de manière croissante, des personnes racisées. Grâce à des technologies de communication comme TaskRabbit, certains groupes favorisés se délestent de l’ennui et du stress qui accompagnent la réalisation de tâches socialement dévalorisées. Ils en profitent pour vivre, selon les mots utilisés par la compagnie, « la vie qu’ils devraient vivre » :

TaskRabbit accomplit le travail, mais vous sauve aussi d’une dépendance envers autrui en dehors d’un échange économique. L’application vous met en relation avec des groupes de personnes pour qui le travail domestique n’est pas si ennuyant[4].

Ils laissent à d’autres cette vie à ne pas vivre. Dans des cas de ce type, les technologies participent à la marchandisation des tâches reproductives. Elles remplacent la figure de la ménagère par celle du tâcheron enthousiaste et flexible. La pensée de la reproduction sociale sur les technologies ne s’arrête cependant pas à leur capacité d’externalisation du travail reproductif.

Données, logique productive et économie spéculative

Les années 1990 ont été marquées par l’implantation de techniques visant à quantifier et à mesurer le travail d’exécution des soins de santé. Ce faisant, ce type de tâche reliée à la sphère reproductive devait respecter une logique productive qui implique de pouvoir calculer le plus précisément possible le rapport entre les intrants et les extrants du processus de production. Dans le cas des services publics, l’objectif consiste à augmenter l’efficience de la production. La manifestation la plus concrète de cette vision a probablement été le déploiement des méthodes de la nouvelle gestion publique, désormais appuyées par des technologies capables de capter et d’analyser des quantités monstrueuses de données. Cette quantification extrême des données est portée par le fantasme de surmonter l’improductivité d’activités comme le soin des personnes en rationalisant leur caractère intuitif et affectif. Encore aujourd’hui, la volonté de quantifier le produit des soins persiste, mais demeure un défi inachevé.

Pourtant, cette ambition n’est pas nouvelle. Dès les années 1970, les théoriciennes féministes ont examiné cette volonté de rationalisation du reproductif. Elles ont élaboré leur critique à partir du concept d’« usinification » de la reproduction. Alors que l’usine est associée à la domination d’intérêts marchands, la critique de l’usinification de la reproduction formulée par Nicole Cox et Silvia Federici[5] ne porte pas sur la privatisation de la reproduction, au contraire. Elle vise directement l’étatisation de certains services jusqu’alors offerts par les femmes. En effet, l’État est l’acteur central de la « mise en usine » de la reproduction. Dans la pensée socialiste de l’époque, la production industrielle, une fois retirée du contrôle bourgeois, représente un progrès. Après tout, elle résulte d’une collectivisation des moyens de production. La coopération dans le processus de travail augmente l’efficacité et réduit la quantité de travail socialement nécessaire pour assurer la survie des humains. La machine matérialise l’espoir de la fin du labeur physique dur et répétitif. Qui ou quoi exécute la tâche n’a réellement d’importance. Qu’il soit atteint par une machine ou par un humain, le résultat est le même. Dans la pensée socialiste, la même logique peut s’appliquer à toutes les tâches, dont les tâches reproductives.

La robotisation de certaines tâches ménagères n’est pas complètement loufoque. Le lave-vaisselle en est bien la preuve. Cependant, la robotisation de certaines tâches domestiques parait absurde pour celles qui les exécutent. Comment mécaniser « l’action de donner le bain à un enfant, de le câliner, de le consoler, de l’habiller et de lui donner à manger, de fournir des services sexuels ou d’aider les malades et les personnes âgées dépendantes[6]? » demande Federici. Pour elle, non seulement la mécanisation de ce travail de nature relationnelle est peu probable, mais elle ne représente pas un horizon post-capitaliste désirable. En effet, la collectivisation et la rationalisation de la reproduction signifient de soumettre davantage ce travail aux pressions de la performance mesurable. L’usinification du travail reproductif signifie qu’il se plie à une vision machinique du travail qui évacue la spécificité des tâches reproductives pour faire dominer la mesure et l’efficacité.

Pour les féministes de la reproduction, la collectivisation du travail reproductif par l’État n’a jamais constitué une voie d’émancipation. Dans la pensée socialiste, le travail reproductif est rétrograde et obsolète, ce qui constitue un problème majeur. Son étatisation a pour objectif de contrer son inefficacité, sans tenir compte de ses qualités non productives. En cela, ces théoriciennes se sont distinguées très tôt des autres marxistes : la répartition de la richesse ne constitue pas le problème fondamental du capitalisme. Pour éliminer les formes de domination imposées par le capitalisme, il faut selon elles abolir son mode de fonctionnement qui dévalue fondamentalement tout ce qui ne se plie pas à la rationalité productive. Cette vision industrielle des soins a aussi été appliquée dans des pays non socialistes. C’est le cas par exemple des centres d’hébergement de soins de longue durée (CHSLD) qui représentent désormais l’antithèse d’un lieu de vie épanouissant pour les personnes âgées et dont le modèle s’est révélé absurde durant la pandémie de COVID-19.

Les expériences japonaises d’intégration de robots pour les soins aux ainés démontrent que pour assumer les coûts élevés d’acquisition, les établissements de soins doivent être de grande taille et très standardisés[7]. Le travail humain, lui, ne diminue pas, mais il devient plus routinier. Si l’avenir politique des soins est celui des robots et d’une intelligence artificielle pensée comme pour une usine, cet avenir sera celui de mégastructures industrielles de soins. L’intégration actuelle des machines respecte la logique productive appliquée à l’organisation des soins. Si cette logique continue de dominer la façon de penser et d’intégrer l’IA, cette technologie dévalorisera les activités reproductives, qu’elles soient soumises à l’échange marchand ou qu’elles soient produites par l’État.

Valorisation des savoirs reproductifs

Avec le développement de l’intelligence artificielle, on peut constater une modification du rapport entre sphère productive et sphère reproductive. La tendance historique vise à dépasser l’improductivité du champ reproductif, soit en intégrant ses activités dans le circuit marchand, soit en les rationalisant de façon à les plier à la logique de production. Désormais, ces tentatives sont exacerbées par l’émergence d’une industrie des données ancrée dans une économie spéculative. Des entreprises comme TaskRabbit ne font pas qu’offrir des services. Leur modèle d’affaires repose en majeure partie sur la promesse de revenus futurs décuplés. Elles doivent croitre rapidement afin d’attirer l’attention d’une masse critique d’investisseurs. Elles seront ensuite acquises par une plus grande corporation ou, plus rarement, elles feront leur entrée sur le marché boursier. Par exemple, après avoir récolté près de 50 millions de dollars d’investissements privés en six ans, TaskRabbit a été rachetée par IKEA. L’entreprise offre désormais des services d’assemblage de ses meubles vendus en pièces détachées sans avoir à s’encombrer de la responsabilité d’être un employeur. Alors que le travail industriel de montage a été délocalisé à l’intérieur des foyers individuels pour être accompli gratuitement, celui-ci redevient rémunéré, mais très précaire.

Dans le secteur de la santé, un champ d’activités plus près de la sphère de la reproduction que le montage de mobilier, j’ai pu observer un foisonnement de nouvelles entreprises qui profitent d’un accès privilégié aux institutions publiques de santé pour commercialiser des technologies d’IA destinées au marché international. Le système public de santé sert de terrain de mise au point et d’expérimentation de produits. Cette exploitation des activités de soins outrepasse leurs limites productives en ne cherchant pas à agir directement sur elles. Or, bien qu’elles ne participent pas de prime abord à marchandiser ou à « usinifier » les soins, ces technologies pourraient avoir une incidence sur leur orientation. Déjà, on voit un accroissement des approches médicales axées sur les traitements complexes et invasifs. On observe une adéquation entre le développement de l’IA et les priorités des géants pharmaceutiques. Les ressources sont orientées vers la production de technologies hyperspécialisées en oncologie ou en génétique. Pourtant, la recherche montre que des politiques orientées vers des investissements massifs dans des traitements curatifs sont inefficaces du point de vue de la santé publique. Des actions préventives axées sur l’environnement ou le logement le sont significativement plus. C’est une vision de l’efficacité que ceux qui sont à l’origine des initiatives en IA en santé ne partagent pas.

Mesurer sobrement

Serait-il possible d’intégrer des technologies comme l’IA dans l’organisation des soins de santé sans procéder à une hyperrationalisation congruente à la logique de la sphère productive ? Une posture prudente reste de mise face à ces technologies qui quantifient, mesurent, analysent et dirigent la prise de décision de façon schématique. Cela est d’autant plus vrai qu’actuellement les structures organisationnelles complexes et hiérarchiques des régimes publics se révèlent avides de données. Elles exercent aussi une surveillance accrue des travailleuses et des travailleurs. Sachant que l’accumulation des dispositifs alourdit le travail et entraine toujours des résistances qui peuvent se solder par du désistement face à la perte du sens au quotidien, les technologies doivent éviter d’attiser une soif insatiable de données quantitatives.

Par ailleurs, une collecte extensive de données pourrait aussi nuire à la relation de soins, en particulier celle avec des personnes qui vivent des situations de marginalité ou qui sont criminalisées. Pour ces dernières, la relation interpersonnelle de confiance est fondée sur la confidentialité. Au printemps 2023, une nouvelle loi a été adoptée pour favoriser la circulation des données des patientes et patients du Québec. Plusieurs ordres professionnels ont publiquement dénoncé de nombreuses dispositions qui mettent à mal le secret professionnel. Ceux-ci craignent que certains patients puissent refuser des soins ou évitent de livrer les informations essentielles à une intervention professionnelle réussie par peur de s’exposer à d’autres regards.

Des principes de sobriété technologique et de sobriété quant à la quantité de données constituent des priorités pour éviter une approche surrationalisante, prête à tout pour réduire les actes reproductifs à des entités comparables. Cette sobriété permettrait de freiner les ambitions économiques qui accompagnent la montée de la production de données depuis déjà plus de 10 ans.

Pour un autre contrôle des outils

Rejeter en bloc l’adoption de technologies ou de savoirs contemporains soulève néanmoins deux problèmes majeurs. D’abord, cette posture est façonnée par le déterminisme technologique. Elle ne prend pas en compte le fait que l’usage d’une même technologie peut varier selon les intérêts qui contrôlent sa production ou ses infrastructures. Ensuite, une opposition catégorique participe à la naturalisation du travail reproductif. L’anthropologue féministe marxiste Paola Tabet soutient que la dévalorisation du travail des femmes, et la dévalorisation des femmes elles-mêmes, se sont construites par le contrôle masculin des outils techniques spécialisés[8]. En ne pouvant pas créer les outils performants par et pour elles-mêmes, elles ont été astreintes à des tâches inutilement harassantes. Ce faisant, certains travaux considérés comme typiquement féminins ont aussi été connotés comme plus naturels. Exclure des technologies sous prétexte qu’elles ne respecteraient pas l’essence de la sphère reproductive perpétuerait la division sexuelle du travail par les outils.

Ainsi, il faut faire le pari que l’IA n’est pas foncièrement en opposition aux soins de santé, mais qu’elle ne doit pas être contrôlée par des intérêts étrangers aux soins. En sortant son développement du circuit marchand de la spéculation pour remettre la prise de décision de ses orientations dans les mains de celles et ceux qui sont au plus près des activités de soins, la production de l’IA pourrait correspondre à une conception radicalement différente.

Bientôt, les besoins en soins à domicile et la privatisation des services en cours depuis vingt ans s’accéléreront probablement. Les plateformes de type Uber centrées sur les soins à domicile risquent alors de devenir d’usage commun. Le discours promotionnel se fera autour des capacités algorithmiques de la prédiction des besoins, de l’optimisation des trajets et de l’établissement de prix concurrentiels. Malgré la demande, ce type de plateforme n’améliorera pas les conditions d’exercice du travail de soin. Pourtant, il sera quand même possible de trouver des personnes pour qui sortir un grand-père malade du lit ne sera « pas ennuyant » parce que cela lui permet de gagner sa vie. De quoi pourrait avoir l’air une telle plateforme si le contrôle de l’organisation du travail était laissé aux mains des bénéficiaires et des travailleuses et travailleurs au sein d’un système public ? Pourrait-elle, dans de bonnes conditions structurelles, soutenir une démarche de valorisation du reproductif ? Ces questions exigent des expérimentations pour y répondre. Pour que les technologies ne soient pas seulement au service de ceux et celles qui ont le luxe de « vivre la vie qu’ils devraient vivre », une réflexion profonde sur le temps de travail et le rapport aux tâches relationnelles s’imposera inévitablement.

Par Myriam Lavoie-Moore, chercheuse à l’IRIS et professeure adjointe à l’École de communications sociales de l’Université Saint-Paul


  1. Myriam Lavoie-Moore, Portrait de l’intelligence artificielle en santé au Québec. Propositions pour un modèle d’innovation au profit des services et des soins de santé publics, Montréal, IRIS, 2023.
  2. Silvia Federici, Réenchanter le monde. Le féminisme et la politique des communs, Genève/Paris, Entremonde, 2022, p. 258.
  3. Sarah Sharma, « TaskRabbit : the gig economy and finding time to care less », dans Jeremy Wade Morris et Sarah Murray  (dir.), Appified. Culture in the Age of Apps, Ann Arbor, University of Michigan Press, 2018.
  4. Ibid.p. 64. Ma traduction.
  5. Nicole Fox et Silvia Federici, Counter-Planning from the Kitchen : Wages for Housework, a Perspective on Capital and the Left, New York, New York Wages for Housework Committee et Bristol, Falling Wall Press, 1975.
  6. Silvia Federici, Le capitalisme patriarcal, Paris, La Fabrique, 2019, p. 94.
  7. James Wright, « Inside Japan’s long experiment in automating elder care », MIT Technology Review, 9 janvier 2023.
  8. Paola Tabet, Les doigts coupés. Une anthropologie féministe, Paris, La Dispute, 2018.

 

La privation de monde face à l’accélération technocapitaliste

7 mai, par Rédaction

La pandémie de COVID-19 a conduit à un déploiement sans précédent de l’enseignement à distance (EAD), une tendance qui s’est maintenue par la suite, et cela malgré les nombreux impacts négatifs observés. De plus, le développement rapide des intelligences artificielles (IA) dites « conversationnelles » de type ChatGPT a provoqué une onde de choc dans le monde de l’éducation. La réaction des professeur·e·s à cette technologie de « disruption[1] » a été, en général, de chercher à contrer et à limiter l’usage de ces machines. Le discours idéologique dominant fait valoir, à l’inverse, qu’elles doivent être intégrées partout en enseignement, aussi bien dans l’élaboration d’une littératie de l’IA chez l’étudiant et l’étudiante que dans la pratique des professeur·e·s, par exemple pour élaborer les plans de cours. Nous allons ici chercher à montrer qu’au contraire aller dans une telle direction signifie accentuer des pathologies sociales, des formes d’aliénation et de déshumanisation et une privation de monde[2] qui va à l’opposé du projet d’autonomie individuelle et collective porté historiquement par le socialisme.

L’expérience à grande échelle de la pandémie

Les étudiantes, les étudiants et les professeur·e·s ont été les rats de laboratoire d’une expérimentation sans précédent du recours à l’EAD durant la pandémie de COVID-19. Par la suite, nombre de professeur·e·s ont exprimé des critiques traduisant un sentiment d’avoir perdu une relation fondamentale à leur métier et à leurs étudiants, lorsqu’ils étaient, par exemple, forcés de s’adresser à des écrans noirs à cause des caméras fermées lors des séances de visioconférence. Quant aux étudiantes et étudiants, 94 % d’entre eux ont rapporté ne pas vouloir retourner à l’enseignement en ligne[3]. Des études ont relevé de nombreuses répercussions négatives de l’exposition excessive aux écrans durant la pandémie sur la santé mentale[4] : problèmes d’anxiété, de dépression, d’isolement social, idées suicidaires.

Le retour en classe a permis de constater des problèmes de maitrise des contenus enseignés (sur le plan des compétences en lecture, en écriture, etc.) ainsi que des problèmes dans le développement de l’autonomie et de la capacité de s’organiser par rapport à des objets élémentaires comme ne pas arriver à l’école en pyjama, la ponctualité, l’organisation d’un calendrier, la capacité à se situer dans l’espace ou à faire la différence entre l’espace privé-domestique et l’espace public, etc.

D’autres études ont relevé, au-delà de la seule pandémie, des problèmes de développement psychologique, émotionnel et socioaffectif aussi bien que des problèmes neurologiques chez les jeunes trop exposés aux écrans. Une autrice comme Sherry Turkle par exemple note une perte de la capacité à soutenir le regard d’autrui, une réduction de l’empathie, de la socialité et de la capacité à entrer en relation ou à socialiser avec les autres.

Tout cela peut être résumé en disant qu’il y a de nombreux risques ou effets négatifs de l’extension des écrans dans l’enseignement sur le plan psychologique, pédagogique, développemental, social, relationnel. Le tout est assorti d’une perte ou d’une déshumanisation qui affecte la relation pédagogique de transmission en chair et en os et en face à face au sein d’une communauté d’apprentissage qui est aussi et d’abord un milieu de vie concret. Cette relation est au fondement de l’enseignement depuis des siècles; voici maintenant qu’elle est remplacée par le fantasme capitaliste et patronal d’une extension généralisée de l’EAD. Or, il est fascinant de constater qu’aucun des risques ou dangers documentés et évoqués plus haut n’a ralenti le projet des dominants, puisqu’à la suite de la pandémie, les pressions en faveur de l’EAD ont continué à augmenter. À L’UQAM, par exemple, les cours en ligne étaient une affaire « nichée » autrefois; après la pandémie, on en trouve plus de 800. L’extension de l’EAD était aussi une importante demande patronale au cœur des négociations de la convention collective dans les cégeps en 2023, par exemple. Il sera maintenant possible pour les collèges de procéder à l’expérimentation de projets d’EAD même à l’enseignement régulier !

Une société du « tele-everything »

Toute la question est de savoir pourquoi la fuite en avant vers l’EAD continue malgré les nombreux signaux d’alarme qui s’allument quant à ses répercussions négatives. Une partie de la réponse se trouve dans le fait que l’EAD s’inscrit dans un projet politique ou dans une transformation sociale plus large. Comme l’a bien montré Naomi Klein[5], la pandémie de COVID-19 a été l’occasion pour les entreprises du capitalisme de plateforme ou les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) de déployer le projet d’une société du « tele-everything » où tout se ferait désormais à distance grâce à une infrastructure numérique d’une ampleur sans précédent. Cela signifie non seulement un monde avec beaucoup moins d’enseignantes et d’enseignants, puisque les cours seront donnés en ligne ou éventuellement par des tuteurs-robots, mais cela concerne aussi un ensemble d’autres métiers dont les tâches sont d’ordre cognitif, puisqu’il s’agit précisément d’automatiser des tâches cognitives autrefois accomplies par l’humain. De nombreux métiers sont donc menacés : journaliste, avocat, médecin, etc. Désormais chacun pourra accéder, par exemple, au téléenseignement, à la télémédecine, au divertissement par la médiation d’un écran et depuis son foyer. Nous pouvons donc parler d’un projet politique visant à transformer profondément les rapports sociaux au moyen de l’extension d’un modèle de société technocapitaliste ou capitaliste cybernétique intercalant la médiation des écrans et de la technologie entre les sujets.

Vers une société cybernétique

Nous pouvons, en nous appuyant sur des philosophes comme le Québécois Michel Freitag ou le Français Bernard Stiegler, relever que la société moderne était caractérisée par la mise en place de médiations politico-institutionnelles devant, en principe, permettre une prise en charge réfléchie des sociétés par elles-mêmes. Plutôt que de subir des formes d’hétéronomie culturelles, religieuses ou politiques, les sociétés modernes, à travers leurs institutions que l’on pourrait appeler « républicaines », allaient faire un usage public de la raison et pratiquer une forme d’autonomie collective : littéralement auto-nomos, se donner à soi-même sa loi. La condition de cette autonomie collective est d’abord, bien entendu, que les citoyennes et citoyens soient capables d’exercer leur raison et leur autonomie individuelle, notamment grâce à une éducation qui les ferait passer du statut de mineur à majeur. Le processus du devenir-adulte implique aussi d’abandonner le seul principe de plaisir ou le jeu de l’enfance pour intégrer le principe de réalité qu’implique la participation à un monde commun dont la communauté politique a la charge, un monde qui est irréductible au désir de l’individu et qui le transcende ou lui résiste dans sa consistance ou son objectivité symbolique et politique.

D’après Freitag, la société moderne a, dans les faits, été remplacée par une société postmoderne ou décisionnelle-opérationnelle, laquelle peut aussi être qualifiée de société capitaliste cybernétique ou systémique. Dans ce type de société, l’autonomie et les institutions politiques sont déclassées au profit de systèmes autonomes et automatiques à qui se trouve de plus en plus confiée la marche des anciennes sociétés. De toute manière, ces dernières sont de plus en plus appelées à se dissoudre dans le capitalisme, et donc à perdre leur spécificité culturelle, symbolique, institutionnelle et politique. Ces transformations conduisent vers une société postpolitique. Elles signifient que l’orientation ou la régulation de la pratique sociale ne relève plus de décisions politiques réfléchies, mais se voit déposée entre les mains de systèmes – le capitalisme, l’informatique, l’intelligence artificielle – réputés décider de manière plus efficace que les individus ou les collectivités humaines. Bref, c’est aux machines et aux systèmes qu’on demande de penser à notre place.

Les anciennes institutions d’enseignement se transforment en organisations calquées sur le fonctionnement et les finalités de l’entreprise capitaliste et appelées à s’arrimer aux « besoins du marché ». Plus les machines apprennent ou deviennent « intelligentes » à notre place, et plus l’enseignement est appelé, suivant l’idéologie dominante, à se placer à la remorque de ces machines. Désormais, la machine serait appelée à rédiger le plan de cours des professeur·e·s, à effectuer la recherche ou à rédiger le travail de l’étudiante ou de l’étudiant; elle pourra même, en bout de piste, corriger les copies, comme cela se pratique déjà en français au collège privé Sainte-Anne de Lachine. L’humain se trouve marginalisé ou évincé du processus, puisqu’il devient un auxiliaire de la machine, quand il n’est tout simplement pas remplacé par elle, comme dans le cas des tuteurs-robots ou des écoles sans professeurs, où l’ordinateur et le robot ont remplacé l’ancien maître. L’Organisation de coopération et de développement économiques (OCDE) évoque déjà dans ses rapports un monde où les classes et les écoles physiques auront tout bonnement disparu. Ce projet participe aussi d’un processus de délestage ou d’« extranéiation » cognitive qui est à rebours de la conception moderne de l’autonomie, et qu’il convient maintenant d’expliciter.

Délestage ou extranéiation cognitive

Le philosophe français Eric Sadin[6] estime qu’un seuil inquiétant est franchi à partir du moment où des facultés ou des tâches cognitives spécifiques à l’humain sont remises entre les mains de systèmes d’intelligence artificielle, par exemple l’exercice du jugement ou le fait de poser un diagnostic médical. Automatiser le chauffage d’une maison ou les lumières d’un immeuble de bureaux est beaucoup moins grave que de transférer le jugement humain dans un système extérieur. Certains intervenants et intervenantes du monde de l’éducation s’enthousiasment devant ce processus, estimant que le délestage cognitif en faveur des machines permettra de sauver du temps qui pourra être utilisé à de meilleures fins[7]. Il faut au contraire insister pour montrer que ce processus pousse la destruction de l’idéal du citoyen – ou de la citoyenne – moderne encore plus loin, puisque celui-ci est remplacé par un individu assisté ou dominé par la machine, réputée penser, juger ou décider à sa place. L’individu n’exerce plus alors la réflexivité, l’autonomie, la liberté : « il faut s’adapter », comme le dirait Barbara Stiegler.

Il est frappant de constater à quel point les technoenthousiastes prennent position sur les nouvelles technologies sans jamais se confronter à l’immense corpus de la philosophie de la technique ou la technocritique, ceci expliquant cela… La position technocritique est généralement ridiculisée en l’assimilant à quelque peur comique du changement semblable à la crainte des minijupes et du rock’n’roll dans les années 1950… Pourtant, les dangers relatifs à ce mouvement de délestage (Entlastung) ou d’extranéiation cognitive ont bien été relevés, et depuis longtemps, par les Arnold Gehlen, Günther Anders ou Michel Freitag, pour ne nommer que ceux-là.

Dès 1956, Anders développe dans L’Obsolescence de l’homme une critique du rapetissement de l’humain face à la puissance des machines. Le concept de « honte prométhéenne » désigne le sentiment d’infériorité de l’ouvrier intimidé par la puissance et la perfection de la machine qui l’a dépassé, lui, l’être organique imparfait et faillible. Le « décalage prométhéen » indique quant à lui l’écart qui existe entre la puissance et les dégâts causés par les machines d’un côté, et la capacité que nous avons de les comprendre, de nous les représenter et de les ressentir de l’autre. Les machines sont donc « en avance » sur l’humain, placé à la remorque de ses productions, diminué et du reste en retard, largué, dépassé par elles.

Anders rapporte un événement singulier qui s’est déroulé à la fin de la guerre de Corée. L’armée américaine a gavé un ordinateur de toutes les données, économiques, militaires, etc., relatives à la poursuite de la guerre avant de demander à la machine s’il valait la peine de poursuivre ou d’arrêter l’offensive. Heureusement, la machine, après quelques calculs, a tranché qu’il valait mieux cesser les hostilités. On a conséquemment mis un terme à la guerre. D’après Anders, c’est la première fois de l’histoire où l’humain s’est déchargé d’une décision aussi capitale pour s’en remettre plutôt à une machine. On peut dire qu’à partir de ce moment, l’humanité concède qu’elle est dépassée par la capacité de synthèse de la machine, avec ses supports mémoriels et sa vitesse de calcul supérieure – supraliminaire, dirait Anders, puisque débordant notre propre capacité de compréhension et nos propres sens. Selon la pensée cybernétique[8] qui se développera dans l’après-guerre, s’il s’avère que la machine exécute mieux certaines opérations, il vaut mieux se décharger, se délester, « extranéiser » ces opérations dans les systèmes. La machine est réputée plus fiable que l’humain.

Évidemment, à l’époque, nous avions affaire aux balbutiements de l’informatique et de la cybernétique. Aujourd’hui, à l’ère du développement effréné de l’intelligence artificielle et de la « quatrième révolution industrielle », nous sommes encore plus en danger de voir une part croissante des activités, orientations ou décisions être « déchargées » de l’esprit humain en direction des systèmes cybernétiques devenus les pilotes automatiques du monde. Il faut mesurer à quel point cela est doublement grave.

D’abord, du point de vue de l’éducation qui devait fabriquer le citoyen et la citoyenne dont la république avait besoin, et qui produira à la place un assisté mental dont l’action se limitera à donner l’input d’un « prompt[9]» et à recevoir l’output de la machine. Un étudiant qui fait un travail sur Napoléon en demandant à ChatGPT d’exécuter l’ensemble des opérations n’aura, finalement, rien appris ni rien compris. Mais il semble que cela n’est pas très grave et que l’enseignement doit aujourd’hui se réinventer en insistant davantage sur les aptitudes nécessaires pour écrire des prompts bien formulés ou en mettant en garde les étudiantes et étudiants contre les « hallucinations », les fabulations mensongères fréquentes des machines qui ont désormais pris le contrôle. « Que voulez-vous, elles sont là pour rester, nous n’avons pas le choix de nous adapter… », nous dit-on du côté de ceux qui choisissent de garnir les chaines de l’ignorance des fleurs de la « créativité », car c’est bien de cela qu’il s’agit : l’enseignement de l’ignorance comme l’a écrit Michéa[10], le décalage prométhéen comme programme éducatif et politique.

Deuxièmement, ce mouvement de déchargement vers la machine vient entièrement exploser l’idéal d’autonomie moderne individuelle et collective et réintroduire une forme d’hétéronomie : celle du capitalisme cybernétique autonomisé. Comme le remarque Bernard Stiegler, le passage du statut de mineur à celui de majeur, donc le devenir-adulte, est annulé : l’individu est maintenu au stade infantile et pulsionnel, puis branché directement sur la machine et le capital. Il y a donc complicité entre l’individu-tyran et le système une fois court-circuitées les anciennes médiations symboliques et politiques de l’ancienne société. Suivant une thèse déjà développée dans le néolibéralisme de Friedrich Hayek, notre monde serait, du reste, devenu trop complexe pour être compris par les individus ou orienté par la délibération politique : il faut donc confier au marché et aux machines informatiques/communicationnelles le soin de devenir le lieu de synthèse et de décision de la société à la place de la réflexivité politique. Or, ce système est caractérisé, comme le disait Freitag, par une logique d’expansion infinie du capital et de la technologie qui ne peut qu’aboutir à la destruction du monde, puisque sa logique d’illimitation est incompatible avec les limites géophysiques de la Terre, ce qui mène à la catastrophe écologique déjà présente. Cela conduit à une forme exacerbée de la banalité du mal comme absence de pensée théorisée par Hannah Arendt, cette fois parce que le renoncement à penser ce que nous faisons pour procéder plutôt à un délestage cognitif de masse mène dans les faits au suicide des sociétés à grande échelle à cause du totalitarisme systémique capitaliste-cybernétique. Nous passons notre temps devant des écrans pendant que le capitalisme mondialisé sur le « pilote automatique » nous fait foncer dans le mur de la crise climatique.

Accélérationnisme et transhumanisme

Ce mouvement de décervelage et de destruction de l’autonomie individuelle et collective au profit des systèmes ne relève pas seulement d’une dérive ou d’une mutation propre à la transition postmoderne. Il est aussi revendiqué comme projet politique chez les accélérationnistes, notamment ceux de la Silicon Valley. Une des premières figures de l’accélérationnisme est le Britannique Nick Land, ancien professeur à l’Université de Warwick, où il a fondé le Cybernetic Culture Research Unit (CCRU) dans les années 1990. Land dit s’inspirer de Marx (!), de Deleuze et Guattari, de Nietzsche et de Lyotard pour conclure que l’avenir n’est pas de ralentir ou de renverser le capitalisme, mais d’accélérer son processus de déterritorialisation. Cette idéologie favorise ainsi l’accélération du capitalisme, de la technologie et se dit même favorable au transhumanisme, à savoir la fusion – partielle ou totale – de l’humain avec la machine dans la figure du cyborg[11]. Après avoir quitté l’université, Nick Land, notamment à cause de son usage de drogues, sombre dans la folie et l’occultisme. Il devient également ouvertement raciste et néofasciste. Il disparait pour refaire surface plusieurs années plus tard en Chine, une société qui, selon lui, a compris que la démocratie est une affaire du passé et qui pratique l’accélérationnisme technocapitaliste. Ses idées sont par la suite amplifiées et développées aux États-Unis par Curtis Yarvin, proche de Peter Thiel, fondateur de PayPal. Cela a engendré un mouvement de la néo-réaction ou NRx qui combine des thèses accélérationnistes et transhumanistes avec la promotion d’une privatisation des gouvernements, une sorte de technoféodalisme en faveur de cités-États gouvernées par les PDG de la techno. Il s’agit donc d’un mouvement qui considère que la démocratie est nuisible, étant une force de décélération, un mouvement qui entend réhabiliter une forme de monarchisme 2.0 mélangé à la fascination technique. On pourrait dire qu’il s’agit d’une nouvelle forme de technofascisme.

Ajoutons qu’une partie des idées de Land et de Yarvin nourrit non seulement l’« alt-right », mais aussi des mouvements ouvertement néonazis dont la forme particulière d’accélérationnisme vise à exacerber les contradictions raciales aux États-Unis pour mener à une société posteffondrement dominée par le suprémacisme blanc. Il existe également une forme d’accélérationnisme de gauche, associé à une figure comme celle de Mark Fisher, qui prétend conserver l’accélération technologique sans le capitalisme. Mais la majeure partie du mouvement est à droite, allant de positions anciennement libertariennes jusqu’à des positions néoautoritaires, néofascistes, transhumanistes ou carrément néonazies. Cette nébuleuse accélérationniste inspire les nouveaux monarques du technoféodalisme de la Silicon Valley, les Peter Thiel, Elon Musk, Mark Zuckerberg et Marc Andreesen[12]. Ceux-ci pensent que l’humain doit fusionner avec l’IA pour ensuite aller coloniser Mars, la Terre étant considérée comme écologiquement irrécupérable. Il n’est donc pas suffisant de parler d’un projet de scénarisation de l’humain par la machine au moyen du délestage cognitif, puisque ce qui est en cause dans le projet accélérationniste et transhumaniste implique carrément la fin de l’humanité telle qu’on l’entendait jusqu’ici. L’anti-humanisme radical doit être entendu littéralement comme un projet de destruction de l’humanité. Il s’agit d’un projet de classe oligarchique et eugéniste qui entend bien donner tout le pouvoir à une nouvelle « race » de surhommes riches et technologiquement augmentés dont le fantasme est de tromper la mort par le biais de la technique pour pouvoir jouir de leur fortune éternellement, à tel point qu’ils modifient actuellement les lois aux États-Unis pour pouvoir déshériter leur descendance et contrôler leurs avoirs éternellement lorsque la technologie les aura rendus immortels…

L’oubli de la société

Ce délire se déroule aussi sur fond « d’oubli de la société », comme le disait Michel Freitag[13], à savoir qu’il implique la destruction des anciennes médiations culturelles et symboliques aussi bien que celle des anciennes sociétés, comprises comme totalités synthétiques ou universaux concrets. Marcel Rioux l’avait déjà remarqué dans les années 1960, l’impérialisme technocapitaliste étatsunien conduit à la liquidation de la langue, de la culture et de la société québécoise. Du reste, comme le souligne Freitag, le fait d’être enraciné dans un lieu et un temps concret est remplacé par un déracinement qui projette le néosujet dans l’espace artificiel des réseaux informatiques ou de la réalité virtuelle. Du point de vue de l’éducation, à quoi sert-il alors de transmettre la culture, la connaissance du passé, les repères propres à cette société concrète ou à son identité, du moment qu’on ne nait plus dans une société, mais dans un réseau ? La médiation technologique et les écrans, en tant que technologie de disruption, viennent contourner les anciennes médiations et le processus d’individuation qu’elles encadraient, produisant des individus socialisés ou institués par les machines. Il devient alors beaucoup plus important d’anticiper l’accélération future et d’enseigner à s’y adapter, beaucoup plus important que d’expliquer le monde commun et sa genèse historique. De ce point de vue, l’ancien instituteur, « hussard noir de la République[14] », doit être remplacé par un professeur branché qui s’empresse d’intégrer les machines à sa classe, ou carrément par ChatGPT ou par un quelconque tuteur-robot. Ainsi la boucle serait complète : des individus formés par des machines pour vivre dans une société-machine, où l’ancienne culture et l’ancienne société auraient été remplacées par la cybernétique.

Une aliénation totale

Nous l’avons dit : les jugements enthousiastes sur cette époque sont généralement posés sans égard au corpus de la théorie critique ou de la philosophie de la technique. Il nous semble au contraire qu’il faille remobiliser le concept d’aliénation pour mesurer la dépossession et la perte qui s’annoncent en éducation, pour les étudiants, les étudiantes, les professeur·e·s, aussi bien que pour la société ou l’humanité en général. L’aliénation implique un devenir étranger à soi. En allemand, Marx emploie tour à tour les termes Entaüsserung et Entfremdung, extériorisation et extranéiation. La combinaison des deux résume bien le mouvement que nous avons décrit précédemment, à savoir celui d’une extériorisation de l’humanité dans des systèmes objectivés à l’extérieur, mais qui se retournent par la suite contre le sujet. Celui-ci se trouve alors non seulement dépossédé de certaines facultés cognitives, mais en plus soumis à une logique hétéronome d’aliénation qui le rend étranger à lui-même, à sa pratique, à autrui, à la nature et à la société – comme l’avait bien vu Marx –, sous l’empire du capitalisme et du machinisme. Le sujet se trouve alors « privé de monde[15] » par un processus de déshumanisation et de « démondanéisation ». Ce processus concerne aussi bien la destruction de la société et de la nature que celle de l’humanité à travers le transhumanisme. Nous pouvons ainsi parler d’une forme d’aliénation totale[16] – ou totalitaire – culminant dans la destruction éventuelle de l’humanité par le système technocapitaliste. Ajoutons que le scénario d’une IA générale (AGI, artificial general intelligence) ou de la singularité[17] est évoqué par plusieurs figures crédibles (Stephen Hawking, Geoffrey Hinton, etc.) comme pouvant aussi conduire à la destruction de l’humanité, et est comparé au risque de l’arme nucléaire. L’enthousiasme et la célébration de l’accélération technologique portés par les idéologues et l’idéologie dominante apparaissent d’autant plus absurdes qu’ils ignorent systématiquement ces mises en garde provenant pourtant des industriels eux-mêmes. Sous prétexte d’être proches des générations futures, soi-disant avides de technopédagogie, on voit ainsi des adultes enfoncer dans la gorge de ces jeunes un monde aliéné et courant à sa perte, un monde dont ils et elles ne veulent pourtant pas vraiment lorsqu’on se donne la peine de les écouter, ce dont semblent incapables nombre de larbins de la classe dominante et de l’accélérationnisme technocapitaliste, qui ont déjà pressenti que leur carrière actuelle et future dépendait de leur aplaventrisme devant le pouvoir, quitte à tirer l’échelle derrière eux dans ce qu’il convient d’appeler une trahison de la jeunesse.

Conclusion : réactiver le projet socialiste

Nous avons montré précédemment que l’extension du capitalisme cybernétique conduit à des dégâts : psychologiques, pédagogiques, développementaux, sociaux/relationnels. Nous avons montré que le problème est beaucoup plus large, et concerne, d’une part, le déchargement de la cognition et du jugement dans des systèmes extérieurs. D’autre part, il participe de la mise en place d’un projet politique technocapitaliste, celui d’une société postmoderne du « tout à distance » gérée par les systèmes, ce qui signifie la liquidation de l’idéal d’autonomie politique moderne. Cela entraine bien sûr des problèmes en éducation : formation d’individus poussés à s’adapter à l’accélération plutôt que de citoyens éclairés, fin de la transmission de la culture et de la connaissance, oubli de la société, etc. Plus gravement, cela participe d’une dynamique d’aliénation et de destruction du rapport de l’individu à lui-même, aux autres, à la nature et à la société. Ce processus culmine dans le transhumanisme et la destruction potentielle aussi bien de l’humain que de la société et de la nature si la dynamique accélérationniste continue d’aller de l’avant. Ce qui est menacé n’est donc pas seulement l’éducation, mais la transmission même du monde commun à ceux qu’Arendt appelait les « nouveaux venus », puisque ce qui sera transmis sera un monde de plus en plus aliéné et en proie à une logique autodestructive. Les Grecs enseignaient, notamment dans le serment des éphèbes, que la patrie devait être donnée à ceux qui suivent en meilleur état que lorsqu’elle avait été reçue de la génération antérieure. Les générations actuelles laissent plutôt un monde dévasté et robotisé, tout en privant celles qui viennent des ressources permettant de le remettre sur ses gonds.

Il convient évidemment de résister à ces transformations, par exemple en luttant localement pour défendre le droit à une éducation véritable contre la double logique de la marchandisation et de l’automatisation-robotisation. On peut encore réclamer de la régulation de la part des États, mais il est assez évident aujourd’hui que le développement de l’IA a le soutien actif des États – « comité de gestion des affaires de la bourgeoisie », disait Marx. Mais il faut bien comprendre que seule une forme de société postcapitaliste pourra régler les problèmes d’aliénation évoqués ci-haut. Il sera en effet impossible de démarchandiser l’école et de la sortir de l’emprise de la domination technologique sans remettre en question la puissance de ces logiques dans la société en général.

Depuis le XIXe siècle, la réaction à la destruction sociale engendrée par l’industrialisation a trouvé sa réponse dans le projet socialiste[18], qu’il s’agisse de la variante utopique, marxiste ou libertaire. On trouve aussi aujourd’hui des approches écosocialistes, décroissancistes ou communalistes[19]. Cette dernière approche, inspirée par l’écologie sociale de Murray Bookchin, préconise la construction d’une démocratie locale, écologique et anti-hiérarchique. Ce sont là différentes pistes pouvant nourrir la réflexion sur la nécessaire reprise de contrôle des sociétés sur l’économie et la technologie, dont la dynamique présente d’illimitation est en train de tout détruire. Cela laisse entière la question du type d’éducation qui pourrait favoriser la formation des citoyennes et citoyens communalistes dont le XXIe siècle a besoin. Chose certaine, il faudra, à rebours de ce que nous avons décrit ici, que cette éducation favorise l’autonomie, la sensibilité, la compassion, l’altruisme; qu’elle donne un solide enracinement dans la culture et la société, qu’elle apporte une compréhension de la valeur et de la fragilité du vivant et de la nature. Bref, elle devra former des socialistes ou des communalistes enracinés au lieu de l’aliénation et du déracinement généralisé actuels.

Par Eric Martin, professeur de philosophie, Cégep St-Jean-sur-Richelieu


NOTES

  1. Ce type de technologie cause un bouleversement profond dans les pratiques du champ où elle apparait.
  2. Franck Fischbach, La privation de monde. Temps, espace et capital, Paris, Vrin, 2011.
  3. Carolyne Labrie, « Les cégépiens ne veulent plus d’enseignement à distance », Le Soleil, 27 février 2023.
  4. Pour un développement détaillé de ces constats, voir Eric Martin et Sebastien Mussi, Bienvenue dans la machine. Enseigner à l’ère numérique, Montréal, Écosociété, 2023.
  5. Naomi Klein, « How big tech plans to profit from the pandemic », The Guardian, 13 mai 2020.
  6. Eric Sadin, L’intelligence artificielle ou l’enjeu du siècle. Anatomie d’un anti-humanisme radical, Paris, L’Échappée, 2021.
  7. « L’intelligence artificielle, une menace ou un nouveau défi à l’enseignement ? », La tête dans les nuances, NousTV, Mauricie, 29 mai 2023.
  8. Céline Lafontaine, L’Empire cybernétique. Des machines à penser à la pensée machine, Paris, Seuil, 2004.
  9. NDLR. Prompt : il s’agit d’une commande informatique destinée à l’utilisateur ou l’utilisatrice lui indiquant comment interagir avec un programme, ou dans le cas de ChatGPT, des instructions envoyées à la machine pour lui permettre de faire ce qu’on lui demande.
  10. Jean-Claude Michéa, L’enseignement de l’ignorance et ses conditions modernes, Castelnau-le-Lez, Climats, 2006.
  11. NDLR. Cyborg (mot formé de cybernetic organism) : personnage de science-fiction ayant une apparence humaine, composé de parties vivantes et de parties mécaniques.
  12. Marine Protais, « Pourquoi Elon Musk et ses amis veulent déclencher la fin du monde », L’ADN, 20 septembre 2023.
  13. Michel Freitag, L’oubli de la société. Pour une théorie critique de la postmodernité, Québec, Presses de l’Université Laval, 2002.
  14. En 1913, l’écrivain français Charles Péguy qualifie les instituteurs de « hussards noirs ». Combatifs et engagés, ils défendent l’école de la République.
  15. Fischbach, La privation de monde, op. cit.
  16. Voir la présentation de Gilles Labelle lors du séminaire du Collectif Société sur l’ouvrage Bienvenue dans la machine, UQAM, 28 avril 2023.
  17. D’après Wikipedia, « La singularité technologique (ou simplement la Singularité) est l’hypothèse selon laquelle l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d’intelligence », débouchant sur une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine ». Cette thèse est notamment défendue par le futurologue transhumaniste Ray Kurzweil.
  18. Jacques Dofny, Émile Boudreau, Roland Martel et Marcel Rioux, « Matériaux pour la théorie et la pratique d’un socialisme québécois », article publié dans la revue Socialisme 64, Revue du socialisme international et québécois, n° 1, printemps 1964, p. 5-23.
  19. Eric Martin, « Communalisme et culture. Réflexion sur l’autogouvernement et l’enracinement », Nouveaux Cahiers du socialisme, n° 24, automne 2020, p. 94-100.

 

L’intelligence artificielle, une puissance médiocre

30 avril, par Rédaction

Today, we pose this question to new powers
Making bets on artificial intelligence, hope towers
The Amazonians peek through
Windows blocking Deep Blues
As Faces increment scars
Old burns, new urns
Collecting data chronicling our past
Often forgetting to deal with
Gender race and class, again I ask
« Ain’t I a woman? »

– Joy Buolamwini, AI, Ain’t I A Woman ?[1]

Alors qu’il y a une quinzaine d’années, les jeunes loups de la Silicon Valley ne cessaient de répéter que les développements de l’industrie de l’intelligence artificielle (IA) promettaient « d’amener un monde meilleur[2] », le discours du milieu est beaucoup plus dramatique aujourd’hui. Dans une récente émission spéciale de Radio-Canada sur l’intelligence artificielle, le chercheur montréalais Yoshua Bengio affirmait :

À partir du moment où on aurait des systèmes d’intelligence artificielle qui sont généralement beaucoup plus intelligents que nous, comment on fait pour les contrôler ? […] Il n’y a pas d’exemple dans l’histoire d’espèce qui contrôle une autre espèce qui serait plus intelligente[3].

Pourquoi les leaders d’une industrie mettent-ils autant d’efforts à nous avertir de potentielles menaces que leurs propres produits font peser sur les sociétés ? Dans une entrevue du balado Tech won’t save us, la linguiste Emily Bender propose quelques éléments d’explication à ce curieux phénomène : si les problèmes à caractère apocalyptique « sont aussi attirants », c’est parce ces leaders « préfèrent réfléchir à un « méchant » imaginaire comme on en retrouve dans la science-fiction […] plutôt que de regarder leur propre rôle dans les préjudices observés aujourd’hui[4] ». On pourrait ajouter que ce type de discours vient aussi renforcer l’apparence d’inéluctabilité de ces technologies.

Le travail de critique des développements en intelligence artificielle doit donc éviter un piège majeur, celui de contribuer à l’engouement autour de l’IA en lui attribuant des capacités qu’elle n’a pas réellement. Les discours critiques évoquant les risques d’une domination totale d’un technocapitalisme d’une grande efficience sur des individus qui ont perdu toute agentivité risquent fort d’entretenir à leur manière ce mythe de l’IA surpuissante, en plus de négliger les effets tangibles des systèmes actuellement déployés sur des populations déjà marginalisées.

Dans cet article, je soutiens au contraire que la critique de l’IA doit plutôt mettre en lumière la médiocrité de cette dernière. Le terme peut sembler fort, il est vrai qu’il existe plusieurs types d’IA, et clairement, certaines innovations s’avèrent étonnamment efficaces pour répondre à des objectifs circonscrits, comme le fait l’informatique depuis plusieurs décennies. Cependant, en dernière analyse, les luttes qui nous attendent se situent dans le prolongement de celles qui nous occupent déjà depuis longtemps, soit une résistance au capitalisme, à l’hétéropatriarcat, au racisme et au colonialisme.

« l’IA n’est pas artificielle et elle n’est pas intelligente [5] »

Il n’y a pas d’intelligence dans l’intelligence artificielle. De manière générale, on fait plutôt face à des développements informatiques qui ont permis à des algorithmes de repérer des occurrences dans d’énormes masses de données et de faire des prédictions sur cette base. Pour décrire les modèles de langage comme ChatGPT, Emily Bender a popularisé l’expression de « perroquet stochastique » (stochastic parrot [6]). Le terme « stochastique» fait référence à ce qui est généré à partir de variations aléatoires; autrement dit, ChatGPT est un baratineur. Des féministes l’ont aussi comparé à ces hommes qui parlent avec une grande assurance de sujets qu’ils ne maitrisent à peu près pas. Cela ne veut pas dire, par ailleurs, que ChatGPT n’a aucune utilité : par exemple, il est possible de synthétiser des textes ou de produire des tableaux à partir de bases de données. Il est néanmoins judicieux d’éviter d’exagérer ses capacités.

Il faut toujours garder à l’esprit tout ce qu’une intelligence dite « artificielle » vient puiser – piller, en termes clairs – et ce, tant au sein de nos sociétés que dans l’environnement. Les documents publiés dans le cadre de la poursuite du New York Times contre ChatGPT montrent que certains passages sont pratiquement du « copier-coller » d’articles publiés par le journal. ChatGPT repose également sur le travail d’employé·es du Kenya qui ont dû tracer la ligne entre le contenu acceptable et les propos haineux et violents, au prix de leur santé mentale et pour un salaire de 2 $ l’heure. Le magazine Time rapporte que cette tâche a causé un nombre de traumas si important au sein de la force de travail que la firme sous-traitante Sama a mis fin au contrat avec OpenAI huit mois plus tôt que prévu[7]. Ce genre de « nettoyage des données » est nécessaire pour plusieurs systèmes en vogue aujourd’hui. Quant aux impacts environnementaux, on a déjà des chiffres éloquents : l’IA générative a fait bondir la consommation d’eau chez Microsoft, propriétaire d’OpenAI qui a développé ChatGPT, de 34 % entre 2021 et 2022[8].

En dépit de tous ces effets négatifs et malgré des investissements considérables, l’IA demeure souvent médiocre. Les exemples abondent. Après des années, voire des décennies, d’annonces de l’arrivée imminente des voitures autonomes pour le public, celles-ci sont toujours « en route vers nulle part », selon Christian Wolmar, journaliste britannique spécialisé dans les enjeux de transport : « Les entreprises des technos ont constamment sous-estimé la difficulté à égaler, sans parler d’améliorer, les aptitudes de conduite des humains[9] ».

Poursuivons avec d’autres exemples, d’abord concernant la désinformation par les fameux hypertrucages (deepfakes). On présente souvent le risque d’une guerre qui serait déclenchée par une fausse déclaration de la part de Vladimir Poutine ou de Joe Biden, mais la personne attentive remarquera qu’aucun article portant ces avertissements nefournit d’exemple tangible où un tel trucage a produit un effet politique significatif sur une société. Plus largement, la désinformation en ligne a plutôt tendance à renforcer les opinions de personnes déjà sensibles au message politique véhiculé; autrement dit, celles et ceux qui y adhèrent veulent souvent déjà y croire. Pour le reste, les hypertrucages et les fausses nouvelles ont surtout comme effet de généraliser le doute et la méfiance à l’égard de ce qui nous est présenté, ce qui est à l’opposé des capacités qu’on attribue à ces procédés, à savoir faire croire à son authenticité[10].

Qu’en est-il des algorithmes des médias sociaux ? La recherche sur les fameuses « chambres d’écho » dans lesquelles les internautes risqueraient d’être « coincé·es » est loin d’être concluante. Le journaliste scientifique Jean-François Cliche présentait récemment des recherches montrant que « non seulement la plupart des gens sont exposés à toutes sortes de vues, mais ils s’engagent aussi sciemment dans des échanges avec des personnes aux convictions opposées[11] ». Les algorithmes des médias sociaux ne sont pas programmés et calibrés pour nous offrir ce qui correspond à nos intérêts et croyances, mais plutôt pour présenter du contenu qui nous garde sur le site afin d’accumuler des données à notre sujet et nous offrir de la publicité ciblée, ce qui n’est pas la même chose. À la limite, on pourrait comparer le scrolling, le défilement du contenu d’un écran, des années 2020 au zapping des années 1990 : on se demande, une heure plus tard, pourquoi on a perdu un tel temps à regarder du contenu aussi insignifiant…

Terminons avec le cas de la reconnaissance faciale. Il est loin d’être clair que la vidéosurveillance assistée par les algorithmes est si efficace. Entre 2017 et 2021, en prévision des Jeux olympiques de Paris, la Société nationale des chemins de fer français (SNCF) a testé 19 logiciels de vidéosurveillance algorithmique : seuls 9 ont eu une performance supérieure à 50 %[12]. En 2018, il a été divulgué que le système de reconnaissance faciale utilisé par la Metropolitan Police de Londres avait produit 98 % de faux positifs : seules 2 alertes sur 104 étaient correctes[13]. Israël est un leader des technologies de surveillance, y compris celles de reconnaissance faciale, mais cela n’a aucunement été utile pour prévenir les attaques du Hamas le 7 octobre 2023.

« L’IA est basée sur les données, et les données sont un reflet de notre histoire[14] »

À la lecture de ces exemples, on sera peut-être tenté de répondre : « Bien sûr, l’IA fait des erreurs, mais c’est parce que nous sommes seulement aux débuts de son développement ! » Mais en disant cela, ne sommes-nous pas en train de reprendre les arguments de vente de l’industrie ? Pour paraphraser le philosophe Hubert Dreyfus qui critiquait déjà les prétentions des chercheurs en intelligence artificielle dans les années 1970, ce n’est pas parce qu’on a atteint le sommet de la tour Eiffel qu’on est plus près d’atteindre la Lune…

Certes, l’IA actuelle permet des prouesses étonnantes et annonce plusieurs changements dans nos vies, notamment dans divers secteurs du travail. Mais, comme le dit Hubert Guillaud, « l’IA vise à accélérer la prise de décision bien plus qu’à l’améliorer[15] ». Il s’agit souvent de faire des gains de productivité à l’aide de logiciels qui simulent ou surveillent l’activité humaine avec une efficacité variable, faisant ainsi pression sur la force de travail. Ces bouleversements sont plus terre-à-terre que les menaces existentielles du style de La Matrice[16], mais ils font pourtant partie de ceux qui doivent réellement nous préoccuper. Même une IA aux capacités restreintes peut causer des dégâts considérables; on rejoint ici les préoccupations d’André Gorz pour qui les innovations technologiques doivent être développées dans une optique d’allègement du travail et d’augmentation de l’autonomie.

Cela étant, la soi-disant intelligence artificielle comporte des limites majeures dont rien n’indique qu’elles pourront un jour être dépassées. D’abord, les accomplissements issus des réseaux neuronaux et de l’apprentissage profond, contrairement à ce que ces termes laissent entendre, ne signifient pas que ces systèmes possèdent les capacités de saisir le sens des créations humaines. L’IA ne comprend pas ce qu’elle voit et ne fait pas preuve de créativité : elle fournit des réponses et des prédictions de manière probabiliste, sur la base des données qui lui ont été fournies. En dernière analyse, l’IA contemporaine soulève une question épistémologique : qu’est-ce que les données nous concernant, si vastes et intrusives sont-elles, saisissent véritablement de ce que nous sommes ? Jusqu’à quel point peut-on traduire les émotions, aspirations, craintes et espoirs d’un être humain en données chiffrées ou en code informatique ?

Il y a une autre limite structurelle à l’IA actuelle : puisque les générateurs de langage ou d’images et les algorithmes d’aide à la prise de décision s’appuient inévitablement sur des données du passé, cela leur donne un biais, un angle, éminemment conservateur. Ils tendent à reproduire les iniquités, stéréotypes, dominations et oppressions déjà présents dans nos sociétés, en leur donnant un vernis « neutre » parce que « mathématique ».

Ici aussi, les exemples sont nombreux. La chercheuse et militante Joy Buolamwini a bien démontré que plusieurs logiciels de reconnaissance faciale sont très inefficaces pour identifier ou même simplement repérer les visages des personnes noires[17]. Les six cas d’arrestations erronées basées sur la reconnaissance faciale répertoriés par l’American Civil Liberties Union impliquent tous des personnes noires[18].

Les logiciels de prédiction de la criminalité posent le même genre de problèmes. Aux États-Unis, ces systèmes de décision automatisés peuvent assister la police en indiquant où patrouiller sur la base de données passées, ou encore peuvent aider des juges à évaluer les risques de récidive afin de déterminer la caution ou les conditions de probation d’individus.

Or, sachant que les systèmes judiciaires et policiers occidentaux sont fortement imprégnés de racisme et de classisme systémiques – certains quartiers étant sur-surveillés par rapport à leur taux de criminalité réel ou certains groupes condamnés étant l’objet de peines et de conditions plus sévères en raison de préjugés du système judiciaire –, les logiciels s’appuyant sur de telles données tendent à reproduire ces inégalités et injustices[19].

Il en est de même lorsque des compagnies de crédit ou d’assurance assignent un classement aux individus pour déterminer leur solvabilité ou leur niveau de risque : une personne avec un dossier sans faille peut voir celui-ci dénaturé par le recours à des probabilités basées sur les dossiers de personnes aux caractéristiques sociales similaires. C’est aussi le cas pour les admissions universitaires ou collégiales, pour l’attribution d’un logement social, pour l’embauche et les évaluations au travail[20]… Bref, on risque de renforcer des formes automatisées de ségrégation économique, genrée ou raciale effectuées par des systèmes qualifiés d’intelligents.

« L’IA étroite se résume à des mathématiques[21] »

Le mythe d’une IA surpuissante, redoutablement efficace, incontrôlable et menaçante est tenace. Du Frankenstein de Mary Shelley aux récits glaçants de la série Black Mirror, en passant par 2001 : l’odyssée de l’espace et les films Terminator, on constate une propension récurrente à fantasmer des machines qui dépassent, voire asservissent, l’être humain.

Ce mythe n’est pas seulement entretenu par des œuvres de fiction. Il est frappant de constater aujourd’hui des points de convergence entre les avertissements lancés par les gourous de l’univers des technos et certains discours critiques de l’IA, notamment les craintes à l’égard d’une domination totale d’une forme technologique sur les vies humaines. Alors que le chercheur Yoshua Bengio s’inquiète d’une IA qui aurait de tels désirs d’autopréservation qu’on ne pourrait plus la débrancher – « Si elle raisonne un peu, elle va se rendre compte qu’un humain pourrait effectivement la débrancher. Que fera-t-elle ? Elle pourrait se dupliquer sur d’autres machines[22] » –, le philosophe Eric Martin entrevoit « notre enfermement aliénant dans le monde forclos du jugement-machine et du capitalisme automatisé, un “monde sans humains” où nous n’aurons pas disparu, mais serons devenus les objets de machines-sujets qui penseront à notre place[23] ». Pour son collègue Maxime Ouellet, « la capacité de la praxis sociale d’instituer des normes […] se trouve anéantie » par les algorithmes et les big data, « [en] modelant la régulation sociale sur l’anticipation de l’action des sujets[24] ».

Ces perspectives critiques posent plusieurs problèmes. D’abord, en surestimant les capacités de l’IA, on entretient le discours actuel de légitimation de l’industrie. Ensuite, les inquiétudes concernant un « futur plus ou moins proche » éveillent des fantasmes dystopiques enivrants, mais nous amènent à négliger les problèmes moins glamour que l’IA pose dès maintenant : par exemple, à l’heure actuelle les hypertrucages servent davantage à dénuder des femmes sans leur consentement qu’à perturber des campagnes électorales. Troisièmement, en opposant l’IA – ou les robots ou les machines – à l’Humanité avec un grand H, on tend à laisser de côté les effets négatifs plus prononcés de ces technologies sur les groupes de la population qui sont déjà davantage opprimés, exploités et marginalisés. Enfin, en postulant que ce développement technologique amène notre société dans une ère totalement inédite, on tend à sous-estimer la capacité de l’IA à reconduire sous un nouveau visage des formes de domination anciennes et connues.

Ce n’est d’ailleurs pas une coïncidence si les critiques que j’ai amenées dans cet article sont issues en grande majorité du travail de femmes racisées telles que Joy Buolamwini, Timnit Gebru, Safiya Noble et Meredith Broussard[25]. Or, certaines analyses nous invitent plutôt à entrevoir les perspectives critiques féministes et antiracistes de l’IA comme une simple extension de la sphère de l’éthique libérale, qui chercherait essentiellement à améliorer ces systèmes. En d’autres termes, ces critiques ne seraient pas porteuses de radicalité. Par exemple, Eric Martin écrit :

Dans la nouvelle éthique sans politique contemporaine, […] les seules questions autorisées ne concernent pas le caractère désirable du développement des robots, mais portent sur la manière de les programmer afin qu’ils ne soient pas sexistes ou racistes. On s’attaquera ainsi aux problèmes par le petit bout de la lorgnette, ce qui évitera de poser d’importantes questions sur le plan macrosociologique, à savoir par exemple que le développement du capitalisme détruit aussi bien les sociétés que la nature. Il y a donc, dit Castoriadis, « abandon du décisif au profit du trivial », et parler de ce dernier à profusion servira commodément d’écran médiatico-spectaculaire pour faire oublier la totale soumission sur le plan du premier[26].

Je partage les critiques d’Eric Martin selon lesquelles l’éthique libérale sert effectivement de légitimation aux développements de l’industrie, particulièrement à Montréal où l’éthique est devenue un élément central de l’image de marque de l’IA locale. Cependant, il m’apparait curieux de considérer que la déconstruction des systèmes d’oppression patriarcale et raciale serait « triviale » alors que ceux-ci concernent la grande majorité de la population de la planète.

Par ailleurs, il est erroné de prétendre que la critique féministe et antiraciste de l’IA se contente d’accompagner l’expansion du capitalisme en lui donnant un visage diversitaire ou woke, comme le veut la terminologie réactionnaire de notre époque. Observons par exemple le travail militant de l’Algorithmic Justice League (AJL) fondée par Buolamwini. L’organisation a pour objectif de sensibiliser la population et les élu·es aux biais et autres méfaits que peut amener l’IA. Leur site Web présente en détail leurs perspectives de lutte. On y explique par exemple que :

la justice requiert qu’on empêche l’IA d’être utilisée par les personnes au pouvoir pour augmenter leur niveau absolu de contrôle, particulièrement s’il s’agit d’automatiser des pratiques d’injustice bien ancrées historiquement, telles que le profilage racial par les forces policières, les biais sexistes à l’embauche et la sur-surveillance de communautés immigrantes. La justice implique de protéger les personnes ciblées par ces systèmes[27].

On y trouve également une critique de l’éthique en intelligence artificielle :

L’utilisation de l’éthique n’est pas en soi problématique, mais a mené à la prolifération de « principes en IA » avec peu de moyens pour les appliquer en pratique. […] De notre point de vue, il s’agit d’une approche limitée, parce qu’elle ne crée pas d’obligations ou n’interdit pas certains usages de l’IA. […] Si nous nous soucions uniquement de faire des améliorations aux jeux de données et aux processus informatiques, nous risquons de créer des systèmes techniquement plus précis, mais également plus susceptibles d’être utilisés pour de la surveillance massive et d’accentuer des pratiques policières discriminatoires[28].

Ainsi, on voit qu’une critique féministe et antiraciste peut très bien s’inscrire dans une perspective abolitionniste face à certains développements technologiques et nourrir une dénonciation radicale du capitalisme.

Surtout, ce genre d’ancrage permet de mettre en lumière que ces développements techniques s’inscrivent dans l’histoire plus générale de la science, et de la manière dont une science médiocre a pu s’articuler à des visées de domination et d’exploitation. Comme le dit Cory Doctorow, « le racisme scientifique est parmi nous depuis des siècles[29] ». Au XIXe siècle, la phrénologie prétendait pouvoir identifier le caractère d’une personne, et notamment sa propension à la criminalité, à partir de la forme de son crâne. Au tournant du XXe siècle, des mathématiciens de renom ont participé à la fondation des statistiques telles qu’on les connait parce qu’elles permettaient d’escamoter leurs conclusions eugénistes derrière un paravent prétendument objectif[30]. Aujourd’hui, des chercheurs publient des articles dans des revues scientifiques prestigieuses dans lesquelles ils affirment que des systèmes d’intelligence artificielle leur permettent d’identifier l’orientation sexuelle ou les affiliations politiques d’un individu à partir de simples photos du visage[31].

Si la science et la technique médiocres ont fréquemment été des instruments de domination et d’exploitation, cette perspective historique permet aussi de nourrir l’espoir : la mauvaise science et la mauvaise technique peuvent être contestées et rejetées. Au-delà de la technologie elle-même, le problème est ultimement politique : ce dont il est question, c’est du pouvoir qui mobilise l’IA, du pouvoir que l’IA permet de développer sur les populations et du pouvoir qu’il nous faut construire pour se l’approprier ou l’abolir.

Par Philippe de Grosbois, professeur en sociologie au Collège Ahuntsic


NOTES

  1. Joy Buolamwini, AI, Ain’t I A Woman ?, YouTube, 28 juin 2018. Ain’t I a Woman? est un discours prononcé par la féministe afro-américaine Sojourner Truth en 1851. Traduction littérale du poème par la rédaction :
    Aujourd’hui, nous posons cette question à de nouvelles puissances
    Nous parions sur l’intelligence artificielle, tours d’espoir.
    Les Amazoniens jettent un coup d’œil à travers
    les fenêtres (Windows) bloquant les bleus profonds (Deep Blues)
    alors que les visages augmentent (increment) les cicatrices.
    De vieilles brûlures, de nouvelles urnes
    Collecte de données retraçant notre passé
    Oubliant souvent de traiter du genre, de la race et de la classe, je demande à nouveau
    « Ne suis-je pas une femme ? »
  2. « Make the world a better place » : c’est une formule répétée comme un mantra et ridiculisée par la série humoristique Silicon Valley.
  3. « Émission spéciale : L’intelligence artificielle décodée », Radio-Canada Info, 7 décembre 2023, 89e et 90e minutes.
  4. « ChatGPT is not intelligent, Emily M. Bender », Tech Won’t Save Us, 13 avril 2023, 51e minute. Ma traduction.
  5. Cory Doctorow, « The AI hype bubble is the new crypto hype bubble », Pluralistic, 9 mars 2023. Ma traduction.
  6. Elizabeth Weil, « You are not a parrot and a chatbot is not a human. And a linguist named Emily Bender is very worried what will happen when we forget this », New York Magazine, 1er mars 2023.
  7. Billy Perrigo, « OpenAI used kenyan workers on less than $2 per hour to make chatGPT less toxic », Time, 18 janvier 2023.
  8. Nastasia Michaels, « 6,4 milliards de litres pour Microsoft : l’IA générative a-t-elle fait exploser la consommation d’eau des géants de la tech ? », Geo, 12 septembre 2023.
  9. Christian Wolmar, « Driverless cars were the future but now the truth is out : they’re on the road to nowhere », The Guardian, 6 décembre 2023. Ma traduction.
  10. J’ai développé davantage ces idées dans le livre La collision des récits. Le journalisme face à la désinformation, Montréal, Écosociété, 2022.
  11. Jean-François Cliche, « Avons-nous tout faux sur les bulles Facebook? », Québec Science, 12 janvier 2023. Voir aussi Laurent Cordonier et Aurélien Brest, « Comment les Français choisissent-ils leurs médias? », The Conversation, 22 mai 2023.
  12. Jean-Marc Manach, « 50 % des algorithmes de vidéosurveillance testés par la SNCF jugés “insatisfaisants” », Next, 4 janvier 2024.
  13. Jon Sharman, « Metropolitan Police’s facial recognition technology 98 % inaccurate, figures show », The Independent, 13 mai 2018.
  14. Phrase de Joy Buolamwini, dans le documentaire de Shalini Kantayya, Coded Bias, États-Unis, 7th Empire Media, 2020, 6e minute.
  15. Hubert Guillaud, « L’IA vise à accélérer la prise de décision, bien plus qu’à l’améliorer! », InternetActu, 6 janvier 2022.
  16. NDLR. Film de science-fiction australo-américain sorti en 1999 qui dépeint un futur dans lequel la plupart des humains perçoivent la réalité à travers une simulation virtuelle, étant connectés à la « Matrice », créée par des machines douées d’intelligence afin de les asservir.
  17. Voir le documentaire Coded Bias, op. cit.
  18. « Meet Porcha Woodruff, Detroit woman jailed while 8 months pregnant after false AI facial recognition », Democracy Now!, 9 août 2023.
  19. Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, « Machine bias », ProPublica, 23 mai 2016. Voir aussi Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023, p. 208-226.
  20. On trouvera plusieurs exemples documentés de ces phénomènes dans le livre de Cathy O’Neil, Weapons of Math Destruction, New York, Crown, 2016.
  21. Phrase de Meredith Broussard dans Coded Bias, op. cit.
  22. Philippe Mercure, « Convaincs-moi… que l’intelligence artificielle menace l’humanité », La Presse, 12 septembre 2023.
  23. Eric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société, n° 3, 2021, p. 216.
  24. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 225-226.
  25. Voir notamment Joy Buolamwini, Unmasking AI, New York, Random House, 2023 ; Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York, New York University Press, 2018 ; Meredith Broussard, Artificial Unintelligence, MIT Press, 2019. Pour un portrait de plusieurs de ces chercheuses, voir Lorena O’Neil, « These women tried to warn us about IA », RollingStone, 12 août 2023.
  26. Eric Martin, op. cit., p. 205. Je souligne.
  27. The Algorithmic Justice League, Learn more. Ma traduction.
  28. Ibid. Ma traduction.
  29. Cory Doctorow, « Machine learning is a honeypot for phrenologists », Pluralistic, 15 janvier 2021. Ma traduction.
  30. Voir Aubrey Clayton, « How eugenics shaped statistics », Nautilus, 27 octobre 2020.
  31. Voir Catherine Stinson, « The dark past of algorithms that associate appearance and criminality », Scientific American, vol. 109, n° 1, 2021, et Cory Doctorow, « Machine learning… », op. cit.

 

L’intelligence artificielle et les algorithmes : au cœur d’une reconfiguration des relations internationales capitalistes

21 avril, par Rédaction

Dans cet article, nous explorons certaines reconfigurations de l’économie politique des relations internationales dans la foulée de l’avènement de nouveaux modes d’exploitation et d’expropriation et de nouvelles relations de dépendance à l’ère des technologies algorithmiques et de l’intelligence artificielle (IA).

Nous identifions d’abord certaines limites de l’hypothèse influente du « techno-féodalisme » pour expliquer les changements politicoéconomiques contemporains, et nous adoptons plutôt le cadre du « capitalisme algorithmique » qui nous apparait plus apte à rendre compte des développements actuels. Deuxièmement, nous examinons les nouveaux rapports capital-travail engendrés par la montée des plateformes et par la prolifération du « travail digital », en nous concentrant surtout sur des espaces du Sud global. Nous nous penchons ensuite sur une nouvelle modalité de transfert de valeur du Sud global vers le Nord sous la forme de l’extraction de données rendue possible par le déploiement d’infrastructures de technologies numériques dans des pays du Sud. Finalement, nous discutons brièvement de la rivalité sino-américaine et nous faisons appel au concept de « périphérisation » afin d’explorer quelques tensions, déplacements et continuités dans l’économie politique internationale, de la période du capitalisme néolibéral à celle du capitalisme algorithmique.

L’économie politique de l’IA et des algorithmes : une logique féodale ou capitaliste ?

Comment conceptualiser le contexte historique du déploiement accéléré des technologies d’IA ? L’économiste Cédric Durand a formulé une théorisation des transformations contemporaines de l’économie politique du numérique qui a réveillé l’économie politique hétérodoxe de son sommeil dogmatique et qui exerce une grande influence au sein de la gauche[2]. Sa conceptualisation « technoféodale » de l’économie politique contemporaine constitue une contribution d’une grande valeur, mais elle souffre également de limites importantes. Le concept de technoféodalisme met l’accent sur les intangibles[3] et sur les déplacements qu’ils occasionnent dans l’organisation de la production, de la distribution et de la consommation. Selon cette hypothèse, le durcissement des droits de propriété intellectuelle, la centralisation des données et le contrôle oligopolistique de l’infrastructure sociotechnique au cœur du déploiement des technologies algorithmiques et du pouvoir économique des grandes plateformes participent tous à la formation d’une vaste économie de rentes structurée autour de relations de dépendance de type « féodal ».

Les configurations économiques technoféodales sont largement répandues, selon Durand. D’une part, elles s’expriment dans les relations de travail : « Alors que la question de la subordination se trouve au cœur de la relation salariale classique, c’est le rapport de dépendance économique qui est prééminent dans le contexte de l’économie des plateformes[4] ». Durand détecte une dynamique de dépendance non capitaliste dans un contexte où la gestion par les plateformes d’une myriade de travailleuses et travailleurs dispersés subvertit les formes contractuelles d’exploitation du travail salarié. D’autre part, des dynamiques « féodales » se déploient également dans les relations entre différents capitaux : « L’essor du numérique bouleverse les rapports concurrentiels au profit de relations de dépendance, ce qui dérègle la mécanique d’ensemble et tend à faire prévaloir la prédation sur la production[5] ». Malgré la diversité des innovations, notamment autour de l’IA, lesquelles se multiplient à un rythme accéléré, il peut sembler tentant d’aller plutôt vers la notion de féodalisme étant donné la tendance lourde à la stagnation de la productivité et de la croissance économique.

La terminologie féodale identifie certes des changements importants dans les relations fondamentales du capitalisme, mais elle crée à notre avis un cadre conceptuel anachronique qui souffre de limites importantes, surtout lorsqu’il s’agit d’analyser le moment contemporain du déploiement de technologies algorithmiques et de l’IA dans une perspective globale. Premièrement, le terme génère une conception du changement sociohistorique eurocentriste en situant les développements contemporains dans un cadre conceptuel qui reproduit l’expérience historique européenne. Deuxièmement, et de façon reliée, le cadre conceptuel « néoféodal » ignore ainsi comment le capitalisme s’est développé à l’échelle mondiale à partir d’une articulation interne de formes hétérogènes de travail et de marché, d’exploitation et d’extraction, en particulier en rendant l’existence de formes marginales et subordonnées en périphérie indispensable pour le maintien de formes capitalistes plus typiques au centre. Troisièmement, le modèle mène à une conception réductionniste de la transition en niant son contenu concret. Dans l’analyse d’un processus en cours, il est problématique de recourir à des débats sur la transition du féodalisme au capitalisme alors que ceux-ci portent sur des modes de production pleinement constitués sur le plan historique. Cela risque de mener à un raisonnement tautologique, où des caractéristiques soi-disant « non capitalistes » de la nouvelle économie sont étiquetées a priori comme « féodales », pour ensuite en faire dériver un modèle « technoféodal ». Pour ces raisons, la référence au féodalisme européen est davantage une allusion, une métaphore, certes très évocatrice, mais sans véritable pouvoir explicatif[6] : il s’agit davantage par cette notion de signaler des changements économiques contemporains sous le sceau d’un sentiment général de « régression ».

Il faut à notre avis inscrire la récente vague de changements sociotechniques dans un cadre qui permet de saisir les reconfigurations globales et les combinaisons émergentes entre anciennes et nouvelles formes d’accumulation. Plutôt qu’un « retour vers le futur » féodal, nous soutenons que les transformations contemporaines représentent un nouveau stade du développement capitaliste, le capitalisme algorithmique[7], au sein duquel une logique d’exploitation/extraction capitaliste déploie des mécanismes rentiers et de nouvelles formes de dépendance[8]. Comme nous l’ont rappelé entre autres Nancy Fraser, David Harvey et David McNally, l’extraction et « l’accumulation par dépossession » sont des processus continus de l’accumulation du capital, et non pas un moment « d’accumulation initiale » révolu, ou encore des restes historiques de modes de production précapitalistes.

Le capital algorithmique se caractérise par le développement et l’adoption rapide des technologies algorithmiques portés par un impératif d’extraction de données qui (re)produit des relations d’exploitation/extraction dans les espaces-temps du travail, du loisir et de la reproduction sociale, brouillant ces distinctions du point de vue de l’économie politique du capitalisme[9]. En effet, l’exploitation du temps de travail dans la production de valeur d’échange, la forme « classique » de l’accumulation capitaliste, s’accompagne désormais d’une nouvelle forme d’extraction, celle des données, qui se produit pendant et au-delà du temps de travail. On observe ainsi de nouvelles formes de production de valeur qui s’étendent au-delà du temps de travail au fil de différentes opérations d’extraction, de traitement et de transformation de données qui génèrent diverses formes d’actifs et de marchandises pour les capitalistes algorithmiques.

Depuis le milieu des années 2000, les algorithmes se sont encastrés dans divers aspects de l’accumulation du capital, que ce soit sur le plan de la production, de la distribution ou de la consommation. Ils médiatisent les relations sociales, orientent les flux de la (re) production socioéconomique et du travail, et disséminent leur logique prédictive dans la société. Il est désormais ardu de trouver des secteurs économiques, des marchés, voire des sphères de la société, qui ne soient pas transformés ou influencés par les données massives et les algorithmes. Depuis la crise du néolibéralisme financiarisé de 2007-2008, le capital algorithmique reconfigure, réoriente et transcende divers processus et dynamiques du capitalisme néolibéral, alors que les compagnies technologiques des GAFAM[10] entre autres sont devenues les plus grandes compagnies au monde et des fers de lance de l’accumulation capitaliste. Bien entendu, les transitions historiques s’opèrent sur le long terme, et la crise de 2007-2008 est selon nous le symbole d’un processus prolongé de chevauchements et de changements plutôt qu’une rupture nette ou subite. Néanmoins, une transition s’opère effectivement depuis les 15 à 20 dernières années et reconfigure le système capitaliste et son économie politique internationale. De ce point de vue, les nouvelles articulations des rapports entre le Nord et le Sud global se déploient non pas dans le contexte d’un moment « néoféodal » mondialisé, mais dans celui de l’avènement du capital algorithmique. Les nouvelles relations dans la division internationale du travail et les nouveaux mécanismes de transfert de valeur du Sud vers le Nord (et maintenant aussi vers la Chine) se saisissent plus aisément de ce point de vue.

Rapports capital-travail et division internationale du travail

La montée historique du capital algorithmique s’accompagne de reconfigurations importantes du travail aux ramifications internationales. Au premier chef, de nouvelles formes de travail digital combinent, au sein d’assemblages divers, des processus d’exploitation du travail et d’extraction de données sous quatre formes principales. Le « travail à la demande » est le résultat d’une médiation algorithmique, souvent par des plateformes, de l’économie des petits boulots (gig work) ; le « microtravail » fragmente et externalise des tâches numériques auprès de bassins de travailleuses et travailleurs du clic ; le « travail social en réseau » est le lot d’utilisatrices et d’utilisateurs de plateformes, notamment les médias sociaux, lesquels produisent du contenu et traitent des données ; finalement, le « travail venture » forme une nouvelle élite du travail autour de femmes et d’hommes programmeurs, ingénieurs et autres scientifiques de données et experts en IA employés par les firmes technologiques[11]. Chacune de ces formes de travail digital déploie une logique d’exploitation/extraction, alors que la valeur et les données migrent du travail vers le capital algorithmique.

Ces reconfigurations de la relation capital-travail ont en retour réajusté des pratiques de sous-traitance et de délocalisation du travail par les compagnies technologiques du Nord vers les travailleuses et travailleurs du Sud. L’exemple bien connu de la plateforme américaine Uber, qui a conquis tant d’espaces urbains et semi-urbains dans le Sud global, est évocateur de cette tendance large. De plus, la sous-traitance du microtravail par les firmes technologiques auprès de travailleuses et travailleurs du digital du Sud global crée de nouvelles relations d’exploitation/extraction directes et indirectes. Des cas bien documentés comme celui de la sous-traitance par la firme OpenAI de travail d’étiquetage et de « nettoyage » des données utilisées pour entrainer son large modèle de langage ChatGPT auprès de microtravailleuses et microtravailleurs kenyans est évocateur. Ces derniers devaient « nettoyer » les données d’entrainement de ChatGPT afin d’en retirer les contenus violents ou inacceptables pour le modèle tels que des agressions sexuelles, l’abus d’enfants, le racisme ou encore la violence qui pullulent sur Internet[12]. Plusieurs de ces travailleuses et travailleurs ont souffert par la suite du syndrome de choc post-traumatique. Cela n’est que la pointe de l’iceberg d’un vaste réseau de nouveaux marchés de travail digital qui reconfigurent la division internationale du travail à l’ère numérique.

Hormis le microtravail effectué sur la gigaplateforme Amazon Mechanical Turk, surtout concentré aux États-Unis, la plupart du microtravail est effectué dans le Sud global. Le travail digital configure ainsi ses propres chaines de valeur selon une dynamique qui reproduit les pratiques de délocalisation suivant l’axe Nord-Sud de la division internationale du travail. En 2024, la majorité des requérants de microtravail se trouve dans les pays du G7, et la majorité des exécutants de ces tâches dans le Sud global. Souvent, ces travailleuses et travailleurs ne sont pas reconnus comme employés des plateformes, ne jouissent d’aucune sécurité d’emploi, d’affiliation syndicale ou de salaire fixe. Ces personnes héritent également de tâches aliénantes et sous-payées d’entrainement d’algorithmes, de traitement de données et de supervision d’intelligences artificielles qui passent pour pleinement automatisées.

La constitution d’un marché international du travail digital mobilise différents mécanismes institutionnels de l’industrie du développement international. Par exemple, la montée d’organisations d’« impact-sourcing[13] » participe d’une redéfinition du développement international autour de la notion de « fournir des emplois au lieu de l’aide[14] ». La logique de l’impact-sourcing n’est pas nouvelle, elle reproduit des processus de délocalisation et la quête de travail bon marché typique de la mondialisation néolibérale, comme la délocalisation des emplois de services à la clientèle en Asie, notamment en Inde. L’impact-sourcing se concentre toutefois sur la délocalisation du travail digital. Au départ, ces organisations d’externalisation étaient sans but lucratif pour la plupart et, appuyées par la Banque mondiale, elles distribuaient des téléphones portables et des tâches de microtravail dans des camps de réfugié·es, des bidonvilles et dans des pays du Sud global frappés durement par des crises économiques, au Venezuela par exemple. Plusieurs de ces organisations sont devenues par la suite des compagnies à but lucratif qui jouent désormais un rôle majeur dans la constitution et l’organisation d’un marché du travail digital dans des communautés où les occasions d’emploi formel sont rares. La firme Sama par exemple, celle-là même engagée par OpenAI pour sous-traiter l’entrainement des données de ChatGPT, est active en Afrique, en Asie et en Amérique latine, où elle constitue des bassins d’emploi de travail digital à bon marché, notamment en Haïti et au Pakistan.

Nous voyons ainsi que le capital algorithmique introduit des modes d’articulation d’activités formelles et informelles, de boulots d’appoint et de tâches diverses sur plusieurs territoires. Le contrôle centralisé algorithmique de toutes ces activités garantit qu’elles produisent des données qui (re)produisent des formes de surveillance, de pouvoir social et de subordination du travail. Le travail qui supporte le développement de l’IA et des technologies algorithmiques ne provient donc pas uniquement de la Silicon Valley. C’est plutôt un travail collectif mondial qui produit l’IA à l’heure actuelle, mais la concentration de richesse et de pouvoir qui en découle se retrouve aux États-Unis et en Chine.

Extraction des données et transfert de valeur

La montée du travail digital dans le Sud global est également symptomatique de l’impératif d’extraction du capital algorithmique. L’Organisation mondiale du commerce (OMC) et la plupart des accords mondiaux de libre-échange qui structurent le commerce international régulent le mouvement des biens et services, mais aussi des données. Les géants du numérique comme Meta, Google, Amazon et Microsoft dominent à l’échelle mondiale et sont actifs dans le déploiement d’une infrastructure numérique dans les pays du Sud global en échange d’un accès exclusif aux données ainsi générées. Les ramifications internationales de cette « datafication » du Sud global[15] nous invitent à réviser le contenu de concepts tels que le colonialisme ou encore l’impérialisme. L’hégémonie américaine de la deuxième moitié du XXe siècle s’est bâtie sur des rapports économiques inégalitaires et des transferts de valeur du Sud global vers le Nord global, surtout vers les États-Unis et leurs alliés, sous diverses formes : la division internationale du travail, l’échange inégal, la coercition et l’appropriation par le marché, ou encore le mécanisme de la dette. L’ère du capitalisme algorithmique reproduit ces relations d’exploitation/extraction, mais déploie également un nouvel aspect : les transferts de valeur qui s’opèrent du Sud vers le Nord prennent désormais également la forme d’un transfert de données vers les centres que sont les États-Unis et la Chine[16], un transfert de données qui s’accompagne d’un pouvoir algorithmique de surveillance[17], de dépendance et potentiellement de gouvernementalité algorithmique[18] qui posent de nouveaux défis à la souveraineté nationale des pays du Sud. C’est ce que nous appelons le néocolonialisme algorithmique.

La « datafication » du Sud global a également des conséquences importantes dans la sphère du développement international, où l’on assiste à un transfert de pouvoir vers des acteurs du secteur privé. Les compagnies algorithmiques ont maintenant supplanté les autres joueurs traditionnels du complexe institutionnel du développement international (ONG, organisations internationales, gouvernements, banques de développement, organisations humanitaires, etc.) en ce qui concerne les informations sur les populations du Sud global. Les donateurs et autres bailleurs de fonds du développement international se tournent désormais vers des compagnies technologiques pour un accès aux données collectées par leurs applications, lesquelles sont plus nombreuses et détaillées que celles colligées par les méthodes « traditionnelles » (recensements, enquêtes, recherches scientifiques, etc.). Il en résulte que ces compagnies privées héritent d’un plus grand pouvoir de définir les enjeux de développement, de fixer des priorités et d’influencer la gouvernance des projets de développement.

De nouvelles dynamiques de pouvoir émergent ainsi entre acteurs publics et acteurs privés, ce qui soulève également des enjeux épistémologiques et éthiques. D’une part, les données extraites par les compagnies algorithmiques reflètent davantage la situation des populations « connectées » que celle des populations moins intégrées à l’économie de marché, au monde numérique et à la consommation de masse. D’autre part, la propriété des données donne aux capitalistes algorithmiques le pouvoir de voir tout en niant aux utilisatrices et utilisateurs le pouvoir de ne pas être vus. Mark Zuckerberg, par exemple, fait appel à une rhétorique philanthropique afin de promouvoir son projet de développement international « internet.org », visant à connecter gratuitement à l’Internet à l’échelle mondiale les populations défavorisées. L’intérêt de Meta dans un tel projet consiste bien sûr à s’approprier ainsi toutes les données générées par ces nouvelles connexions à grande échelle, surtout dans un contexte où la plupart des pays du Sud global visés par une telle initiative n’ont pas de législation solide concernant la propriété des données ou encore la protection de la vie privée. C’est cette logique extractive, combinée à un « solutionnisme technologique[19] » sans complexe, qui pousse IBM à vouloir utiliser l’IA afin de solutionner les problèmes en agriculture, en santé, en éducation et des systèmes sanitaires au Kenya, ou encore le géant chinois Huawei à développer environ 70 % du réseau 4G en Afrique, en plus de conclure des contrats notamment avec les gouvernements camerounais et kenyan afin d’équiper les centres de serveurs et de fournir des technologies de surveillance[20]. Les compagnies algorithmiques du Nord et de la Chine accumulent ainsi du pouvoir, de la richesse et de l’influence dans les pays du Sud global par ces formes de néocolonialisme algorithmique.

L’économie politique internationale du capitalisme algorithmique et la périphérisation

Le néocolonialisme algorithmique et les relations sino-américaines

L’avènement du capitalisme algorithmique se produit dans une conjoncture internationale de possible transition hégémonique. La croissance soutenue et parfois spectaculaire de la Chine dans les 40 dernières années se traduit désormais par une mise au défi du pouvoir unipolaire américain en place depuis la fin de la Guerre froide. La Chine est encore bien loin de l’hégémonie mondiale, mais sa montée en puissance ébranle déjà les dynamiques de pouvoir en Asie. Alors que le champ gravitationnel de l’accumulation mondiale s’est déplacé de la zone nord-atlantique vers l’Asie du Sud et du Sud-Est dans les dernières décennies[21], la Chine a développé son propre modèle de capitalisme algorithmique autoritaire et se pose désormais en rival mondial des États-Unis sur le plan de l’accumulation algorithmique et des technologies d’IA[22]. Les tensions manifestes dans cet espace de compétition internationale s’accompagnent d’un déclin soutenu du pouvoir économique des pays de l’Union européenne, pour qui le développement du capitalisme algorithmique se fait dans une relation de dépendance envers les États-Unis.

Tout comme le capital algorithmique américain déploie ses rapports capital-travail et ses modes d’exploitation/extraction dans de nouvelles configurations internationales, le capital algorithmique chinois déploie également une infrastructure technologique au fil de ses investissements internationaux, construisant des réseaux de transfert de valeur et de données en Asie, en Afrique, en Amérique latine et au Moyen-Orient, des réseaux orientés vers la Chine. Les flux mondiaux de données prennent ainsi deux directions majeures, les États-Unis et la Chine, avec l’exception notable de la Russie, le seul pays du monde autre que les États-Unis et la Chine à conserver une certaine forme de souveraineté numérique. Alors que le capital algorithmique déploie son unique configuration de mécanismes d’exploitation/extraction, des espaces du capitalisme mondial qui étaient jadis centraux dans l’accumulation du capital sont maintenant en voie de devenir périphériques.

La périphérisation

L’infrastructure sociotechnique algorithmique contemporaine imprègne de plus en plus chaque pore des chaines de valeur mondiales et approfondit les segmentations entre nations et régions au sein des espaces d’accumulation du capital. Le processus actuel de périphérisation de certains espaces du capitalisme mondial doit toutefois être remis dans un contexte historique plus long : la dépendance mondiale envers les GAFAM (et leurs contreparties chinoises) s’enracine dans des formes du droit international et des processus politiques hérités de la période néolibérale. La thèse technoféodale peut également être critiquée de ce point de vue : en décrivant un monde où les pouvoirs privés surpassent ceux des États, elle reproduit la même confusion qui caractérisait les arguments du « retrait de l’État » lors des rondes de privatisations intensives au plus fort de la période néolibérale. En fait, cette asymétrie de pouvoir est elle-même promulguée par les États sous la forme du droit, et elle résulte des positions inégales qu’occupent les différents pays en relation avec les compagnies technologiques transnationales. En ce sens, des formes de gouvernance néolibérale perdurent dans des types d’administration qui favorisent les compagnies privées et maintiennent en place l’orthodoxie budgétaire. Les politiques d’innovation demeurent ainsi largement orientées vers le secteur privé, et le système de droit de propriété intellectuelle international hérité de la période néolibérale sous-tend l’hégémonie des GAFAM aujourd’hui. En adoptant une perspective historique à plus long terme, nous voyons que la subordination d’États et de leur territoire à des compagnies transnationales n’est pas nouvelle dans le capitalisme ; en fait, il s’agit d’une condition structurelle qui distingue les pays périphériques des pays du centre.

Les « nouvelles relations de dépendance » à l’ère contemporaine se comprennent plus aisément lorsqu’on tient compte de l’histoire des monopoles intellectuels au-delà de la Californie. La vaste offensive de privatisation des actifs intangibles a débuté dans les années 1990 et s’est appuyée sur les tribunaux et les sanctions commerciales afin d’obliger les pays du Sud à se conformer au régime strict de droit de propriété intellectuelle. L’Accord de l’OMC sur les aspects des droits de propriété intellectuelle liés au commerce (ADPIC; TRIPS  en anglais) est né d’une collaboration avec des entreprises du savoir du Nord de façon à établir des unités de production partout dans le monde tout en limitant l’accès aux intangibles par l’entremise des brevets. La disponibilité de cette infrastructure pour les pays du Sud était conditionnelle à l’adoption d’une forme renouvelée de domination. De plus, bien que les États-Unis et la Communauté européenne occupaient à l’époque une position dominante dans les secteurs informatique, pharmaceutique, chimique et du divertissement, et détenaient les marques déposées les plus importantes au monde, les États-Unis, en tant que premier exportateur mondial de propriété intellectuelle, jouissaient de davantage de marge de manœuvre pour consolider leur position et celle des compagnies qui possédaient d’importants portfolios de propriété intellectuelle.

Quelques décennies plus tard, le sol a certes bougé. Le développement du néocolonialisme algorithmique modifie l’ancienne division entre les gagnants du Nord et les perdants du Sud. Le durcissement du droit de propriété intellectuelle affecte même le Nord global, surtout les pays européens ou encore le Canada, et ce, en raison d’effets à long terme de politiques de flexibilisation et d’austérité qui ont jeté les bases de la montée du capital algorithmique. Cela illustre bien la complexité des transitions historiques, qui sont autant des moments de rupture que de chevauchement d’un vieux monde qui prépare le terrain pour le nouveau. L’Europe est désormais durablement larguée dans la course aux technologies algorithmiques et à l’IA, notamment en raison de systèmes d’innovation nationaux qui demeurent largement articulés autour du leadership du secteur privé, ce qui empêche les gouvernements d’intervenir dans les jeux de la concurrence capitaliste internationale. Alors que la Chine et la Russie ont été en mesure de développer de robustes écosystèmes numériques nationaux, on constate l’absence de capital européen au sommet du secteur technologique algorithmique, et les pays européens doivent pour la plupart se fier à l’infrastructure numérique de compagnies américaines.

Alors que l’avantage industriel historique européen s’est effrité sans être remplacé par de nouvelles capacités, cela nous rappelle que la compétition dans l’ordre international est bidirectionnelle : certains pays gagnent du terrain, d’autres en perdent. Comme le rappelle Enrique Dussel[23], les relations de dépendance entre des capitaux nationaux avec des degrés d’intrants technologiques différents sont un produit de la concurrence internationale. La « dépendance » européenne découle ainsi d’une logique de compétition internationale qui a altéré la relation des pays de l’Union européenne avec les intangibles. L’expérience européenne n’est pas celle d’une transition vers un autre mode de production « technoféodal », mais celle d’un passage de l’autre côté de l’ordre capitaliste mondial, celui de la périphérie. Loin d’un « retour vers le futur » néoféodal, ce processus de périphérisation qui affecte l’Europe, mais également d’autres espaces du capitalisme mondial, est symptomatique d’une reconfiguration des relations d’exploitation/extraction dans le nouveau stade du capitalisme algorithmique.

Par Giuliana Facciolli, Étudiante à la maîtrise à l’Université York et Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia.


NOTES

L’autrice et l’auteur remercient Écosociété de sa permission de reproduire certains passages du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.

  1. Cédric Durand, Techno-féodalisme. Critique de l’économie numérique, Paris, Zones, 2020. D’autres contributions importantes à la conceptualisation des changements contemporains en lien avec le concept de féodalisme viennent entre autres de : Jodi Dean, « Communism or neo-feudalism? », New Political Science, vol. 42, no 1, 2020 ; Yanis Varoufakis, « Techno-feudalism is taking over », Project Syndicate, 28 juin 2021 ; David Graeber parle de son côté de « féodalisme managérial » dans les relations de travail contemporaines. Voir David Graeber, Bullshit Jobs, New York, Simon & Schuster, 2018; en français: Bullshit Jobs, Paris, Les liens qui libèrent, 2018.
  2. Les actifs intangibles sont des moyens de production qu’on ne peut « toucher », par exemple un code informatique, un design, une base de données. Durand, Techno-féodalisme, op. cit., p. 119.
  3. Durand, p. 97.
  4. Durand, p. 171.
  5. Pour une critique différente mais convergente, voir Martineau et Durand Folco, 2023, op. cit., p. 174-179.
  6. Martineau et Durand Folco, 2023, op. cit.
  7. L’idée des relations capitalistes comme assemblages de modes d’exploitation et d’extraction (ou expropriation) et de l’accumulation du capital comme à la fois un processus d’exploitation et de « dépossession » est inspirée de contributions de Nancy Fraser, David Harvey et David McNally : Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; David McNally, Another World is Possible. Globalization and Anti-capitalism, Winnipeg, Arbeiter Ring Publishing, 2006 ; David Harvey, Le nouvel impérialisme, Paris, Les Prairies ordinaires, 2010.
  8. Jonathan Martineau et Jonathan Durand Folco, « Paradoxe de l’accélération des rythmes de vie et capitalisme contemporain : les catégories sociales de temps à l’ère des technologies algorithmiques », Politique et Sociétés, vol. 42, no 3, 2023.
  9. NDLR. Acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft.
  10. Antonio A. Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019 ; Jonathan Martineau et Jonathan Durand Folco, « Les quatre moments du travail algorithmique : vers une synthèse théorique », Anthropologie et Sociétés, vol. 47, no 1, 2023 ; Gina Neff, Labor Venture. Work and the Burden of Risk in Innovative Industries, Cambridge, MIT Press, 2012.
  11. Billy Perrigo, « Exclusive : OpenAI used kenyan workers on less than $2 per hour to make ChatGPT less toxic », Time, 18 janvier 2023.
  12. Parfois traduit en français par « externalisation socialement responsable ».
  13. Phil Jones, Work Without the Worker. Labour in the Age of Platform Capitalism, Londres,Verso, 2021.
  14. Linnet Taylor et Dennis Broeders, « In the name of development : power, profit and the datafication of the global South », Geoforum, vol. 64, 2015, p. 229‑237.
  15. Ce phénomène a certains précédents, notamment la compagnie IBM qui s’appropriait dès les années 1970 les données transitant par ses systèmes informatiques installés dans certains pays du Sud global. Il se déploie toutefois aujourd’hui à une échelle beaucoup plus grande.
  16. Shoshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2022.
  17. Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, vol. 1, n° 177, 2013, p. 163‑96.
  18. Evgeny Morozov, To Save Everything, Click Here. The Folly of Technological Solutionism, New York, PublicAffairs, 2014.
  19. Mohammed Yusuf, « China’s reach into Africa’s digital sector worries experts », Voice of America, 22 octobre 2021.
  20. David McNally, Panne globale. Crise, austérité et résistance, Montréal, Écosociété, 2013.
  21. Kai-Fu Lee, AI Superpowers: China, Silicon Valley, and the New World Order, Boston, Houghton Mifflin Harcourt, 2018.
  22. Enrique Dussel, Towards an Unknown Marx. A Commentary on the Manuscripts of 1861-63, Abingdon, Taylor & Francis, 2001.

 

Vers une théorie globale du capitalisme algorithmique

19 avril, par Rédaction

La littérature sur l’intelligence artificielle (IA) et les algorithmes est aujourd’hui foisonnante, c’est le moins qu’on puisse dire. Toutefois, la plupart des analyses des impacts de l’IA abordent différents domaines de façon isolée : vie privée, travail, monde politique, environnement, éducation, etc. Peu de contributions traitent de façon systématique des rapports complexes qui se tissent entre le mode de production capitaliste et les algorithmes. Notre hypothèse de départ est qu’on ne peut comprendre le développement fulgurant des algorithmes sans comprendre les reconfigurations du capitalisme, et vice versa.

Pour saisir adéquatement les implications sociales, politiques et économiques des machines algorithmiques, il faut situer ces innovations dans le contexte de mutation du capitalisme des deux premières décennies du XXIe siècle. Nous suggérons que la valorisation des données massives et le déploiement rapide de l’IA grâce aux avancées de l’apprentissage automatique (machine learning) et de l’apprentisage profond (deep learning) s’accompagnent d’une mutation importante du capitalisme, et ce, au même titre que la révolution industrielle qui a jadis propulsé l’empire du capital au XIXe siècle. Nous sommes entrés dans un nouveau stade du capitalisme basé sur une nouvelle logique d’accumulation et une forme de pouvoir spécifique, que nous avons baptisé capital algorithmique. Ce terme désigne un phénomène multidimensionnel : il s’agit à la fois d’une logique formelle, d’une dynamique d’accumulation, d’un rapport social et d’une forme originale de pouvoir fondé sur les algorithmes. Il s’agit de conceptualiser la convergence entre la logique d’accumulation du capital et l’usage accru de nouveaux outils algorithmiques. Par contraste, l’expression « capitalisme algorithmique » renvoie plutôt à la formation sociale dans sa globalité, c’est-à-dire l’articulation historique d’un mode de production et d’un contexte institutionnel, ce que Nancy Fraser appelle un « ordre social institutionnalisé[2] ». Il faut donc distinguer la société capitaliste dans laquelle nous sommes, et le rapport social spécifique qui se déploie d’une multitude de manières.

Si la littérature a produit une panoplie d’appellations qui mettent l’accent sur différents aspects du capitalisme contemporain (capitalisme de surveillance, de plateforme, etc.), le concept de « capital algorithmique » comporte plusieurs avantages heuristiques afin de saisir la logique du nouveau régime d’accumulation capitaliste. Il permet d’abord de replacer le travail et la production au centre de l’analyse, mais également d’identifier ce qui, à notre avis, constitue le réel cœur de la logique d’accumulation du capitalisme aujourd’hui et de la relation sociale qui s’y déploie : l’algorithme. En effet, l’algorithme est le principe structurant du nouveau régime d’accumulation capitaliste qui prend appui sur, réarticule, et dépasse le néolibéralisme financiarisé. Premièrement, l’algorithme devient le mécanisme dominant d’allocation du « travail digital » (digital labor). Deuxièmement, l’algorithme ou l’accumulation algorithmique devient le mécanisme dominant de détermination du processus de production. Troisièmement, les algorithmes et les données qui leur sont associées deviennent un objet central de la concurrence entre les entreprises capitalistes. Quatrièmement, les algorithmes médiatisent les relations sociales, notamment par l’entremise des réseaux sociaux et des plateformes numériques. Cinquièmement, les algorithmes médiatisent l’accès à l’information et à la mémoire collective. Sixièmement, l’algorithme génère des revenus en participant à la production de marchandises, ou en tant que mécanisme participant de l’extraction de rentes différentielles. Septièmement, au-delà des entreprises privées, nombre d’organisations et de sphères sociales, allant des pouvoirs publics, services de police, complexes militaires, aux ONG de développement, en passant par les soins de santé, l’éducation, le transport, les infrastructures publiques, etc., ont recours à des technologies algorithmiques afin d’exercer leur pouvoir ou leurs activités. C’est la raison pour laquelle l’algorithme, bien davantage que le « numérique », le « digital », la « surveillance » ou autre constitue le cœur du nouveau régime d’accumulation : il médiatise les relations sociales, préside à la (re)production socioéconomique et diffuse sa logique prédictive dans la société contemporaine.

Si l’expression « capitalisme numérique » peut servir à désigner de manière large les multiples façons dont les technologies numériques influencent le capitalisme et inversement, cette catégorisation demeure trop générale et abstraite pour bien saisir les mécanismes et métamorphoses à l’œuvre au sein des sociétés du XXIe siècle. Plus précisément, l’hypothèse du capitalisme algorithmique suggère qu’il existe une rupture entre deux phases ou moments du capitalisme numérique. Alors que la période qui part de la fin des années 1970 correspond à l’émergence du capitalisme néolibéral, financiarisé et mondialisé, dans la première décennie du XXIe siècle, avec l’arrivée de nouvelles technologies comme l’ordinateur personnel et l’Internet de masse, une série de transformations a produit un effet de bascule ; les médias sociaux, les téléphones intelligents, l’économie de plateformes, les données massives et la révolution de l’apprentissage automatique ont convergé avec la crise financière mondiale de 2007-2008 pour accélérer le passage vers une reconfiguration du capitalisme où la logique algorithmique joue un rôle déterminant.

Pour éviter une conception trop mécanique et réductrice du capitalisme algorithmique, il importe de positionner notre perspective parmi la littérature foisonnante des théories critiques du capitalisme contemporain. Comme il existe une variété de positions entourant les relations complexes entre les technologies et le système capitaliste, nous pouvons distinguer trois principaux axes de débats : l’IA comme outil du capital, la nature du capitalisme et les possibilités d’émancipation.

L’IA, outil du capital ?

Premièrement, dans quelle mesure les algorithmes sont-ils des outils soumis à la logique capitaliste ? Selon une première position acritique, les algorithmes possèdent leur propre réalité, fonctions et usages potentiels, de sorte qu’il est possible de les analyser et de les développer sans faire référence au mode de production capitaliste, à ses impératifs d’accumulation, à ses modes d’exploitation et à ses contraintes spécifiques. Cette vision dominante des algorithmes, largement partagée au sein des milieux scientifiques, industriels et médiatiques, inclut les théories courantes de l’IA, l’éthique des algorithmes ou encore les positions techno-optimistes qui considèrent que les données massives, les plateformes et l’apprentissage automatique pourront créer un monde plus efficace, libre et prospère. Si les auteurs n’hésitent pas à reconnaitre les risques propres à ces technologies, l’objectif ultime est de « harnacher » la révolution algorithmique afin qu’elle soit au service du bien commun, ou encore qu’elle permette de réinventer le capitalisme à l’âge des données massives[3].

Face à ces positions acritiques, des théories critiques n’hésitent pas à dénoncer cette fausse indépendance de la technique et à voir dans les algorithmes un nouvel outil au service du capital. La question de savoir s’il existe plusieurs usages possibles des données massives et de l’IA est matière à débat, mais toutes les approches critiques du capitalisme partagent un constat commun : ce sont les grandes entreprises du numérique qui contrôlent en bonne partie le développement de ces technologies. En effet, ce sont elles qui possèdent les droits de propriété intellectuelle, les budgets de recherche, les centres de données qui stockent nos données personnelles, de même que le temps de travail des scientifiques et celui des lobbyistes qui font pression auprès des gouvernements pour empêcher des législations contraires à leurs intérêts[4]. Nous soutenons la thèse voulant que les technologies algorithmiques soient principalement ou surtout développées en tant qu’outils d’accumulation du capital, tout en étant aussi utilisées dans une variété de sphères de la vie sociale avec des conséquences qui débordent largement cette finalité économique. Sans être réductibles à leur fonction lucrative, les données massives et les algorithmes sont appropriés, façonnés et déployés selon une logique qui répond aux impératifs du mode de production capitaliste et contribuent à modifier ce système en retour.

Nous croyons d’ailleurs, comme d’autres, que les craintes associées aux dangers de l’IA, des robots et des algorithmes constituent souvent au fond des anticipations de menaces liées au fonctionnement du capitalisme. Comme le note l’écrivain de science-fiction Ted Chiang, « la plupart de nos craintes ou de nos angoisses à l’égard de la technologie sont mieux comprises comme des craintes ou des angoisses sur la façon dont le capitalisme va utiliser la technologie contre nous. Et la technologie et le capitalisme ont été si étroitement imbriqués qu’il est difficile de distinguer les deux[5] ». Certaines personnes craignent par exemple que l’IA finisse un jour par nous dominer, nous surpasser ou nous remplacer. Or, derrière le scénario catastrophe d’une IA toute-puissante version Terminator[6] ou de la « superintelligence » présentant un risque existentiel pour l’humanité du philosophe Nick Bostrom se cache la domination actuelle des entreprises capitalistes. Le problème n’est pas l’IA en soi, mais le rapport social capitaliste qui l’enveloppe et qui détermine en bonne partie sa trajectoire. Un autre problème se surajoute : le capital algorithmique est lui-même imbriqué dans d’autres rapports sociaux comme le patriarcat, le colonialisme, le racisme, la domination de l’État.

Certains diront qu’il faut abolir l’IA – ou certaines de ses applications –, saboter les machines algorithmiques, refuser en bloc la technologie, mais ce sont là des réactions qui s’attaquent seulement à la pointe de l’iceberg. Nous sommes confrontés aujourd’hui à une dynamique similaire à celle que Marx observait à son époque, celle de la révolution industrielle où la machine commençait déjà à remplacer une partie du travail humain. Aujourd’hui, la « quatrième révolution industrielle », célébrée par Klaus Schwaub, représente au fond une révolution technologique qui relance la dynamique d’industrialisation, mais à l’aide de machines algorithmiques et de systèmes décisionnels automatisés. La réaction néoluddite qui vise à détruire ces machines est tout à fait normale et prévisible, mais il faut voir ici qu’il est vain d’avoir peur de ChatGPT, des robots ou des algorithmes. Ce qu’il faut, au fond, c’est remettre en question l’ensemble des rapports sociaux qui reproduisent la domination qui se manifeste aujourd’hui en partie par le pouvoir des algorithmes.

Qu’est-ce que le capitalisme ?

Qu’entend-on exactement lorsqu’on parle de « capitalisme » ? S’agit-il d’une économie de marché où les individus se rencontrent pour échanger des biens et services, un système économique basé sur la propriété privée des moyens de production et l’exploitation du travail par les capitalistes, ou encore une dynamique d’accumulation fondée sur la logique abstraite de l’autovalorisation de la valeur qui tend à transformer le capital en « sujet automate » ? Selon la perspective que l’on adopte sur la nature du capitalisme, l’analyse du rôle exact des algorithmes sera bien différente.

Lorsque les institutions du capitalisme comme l’entreprise privée et le marché sont tenus pour acquis, l’usage des données et des algorithmes sera généralement analysé à travers la lunette des applications potentielles pour améliorer la performance des entreprises. Les algorithmes seront conçus comme des « machines prédictives » permettant d’accomplir une multitude de tâches : réduire les coûts de production, améliorer le processus de travail, optimiser les chaines de valeur, bonifier l’expérience client, guider les décisions stratégiques, etc.[7]

Si on adopte plutôt une perspective critique du capitalisme dans le sillage du marxisme classique, on aura plutôt tendance à mettre en lumière les dynamiques d’appropriation privée des nouvelles technologies, les rapports d’exploitation et les résistances des classes opprimées. Cette conception du capitalisme aura tendance à voir le monde numérique comme un « champ de bataille[8] ». En effet, le capitalisme algorithmique repose en bonne partie sur le pouvoir prédominant des géants du Web, l’exploitation du travail et de l’expérience humaine; il renforce différentes tensions, inégalités et contradictions du monde social, et de nombreux fronts de résistance luttent contre ses effets pernicieux : mouvements pour la protection de la vie privée, mobilisations contre Uber, Amazon et Airbnb, sabotage de dispositifs de surveillance, Data 4 Black Lives[9], etc. Cela dit, les analyses uniquement axées sur la « lutte des classes » et les approches inspirées du marxisme classique ont tendance à réduire le capitalisme numérique à un affrontement entre les géants du Web – les capitalistes – et les femmes et hommes « utilisateurs » ou « travailleurs du clic » qui se font exploiter ou voler leurs données. On omet ainsi l’analyse conceptuelle minutieuse des rouages de l’accumulation capitaliste et des rapports sociaux qui structurent la société capitaliste dans son ensemble et sur laquelle il faut se pencher.

C’est ce qu’une troisième approche critique, distincte du marxisme classique, cherche à faire : adopter une vision holistique qui considère le capital comme « une totalité qui prend la forme d’une structure quasi objective de domination […] une situation d’hétéronomie sociale qui prend la forme d’un mode de développement aveugle, incontrôlé et irréfléchi sur lequel les sociétés n’ont aucune prise politiquement[10] ». Dans la lignée des critiques marxiennes de la valeur, l’analyse du capitalisme se concentre sur les catégories centrales de la société capitaliste comme le travail abstrait, la marchandise et la valeur. La critique du capitalisme comme « totalité sociale aliénée » implique donc la critique radicale de la valeur et des « médiations sociales fétichisées », de « l’imaginaire communicationnel du capitalisme cybernétique » et de la « révolution culturelle de l’idéologie californienne » qui nous mènerait vers un « monde numériquement administré[11] ». Or, ces approches totalisantes, malgré leurs prouesses théoriques, ont tendance à éluder les conflits, résistances et possibilités d’émancipation présentes dans le développement économique.

Ces deux approches critiques marxiennes, prenant appui l’une sur les conflits de classes et l’autre sur la logique totalisante du capital, ont donc chacune leurs forces et leurs faiblesses. Selon nous, le capital algorithmique tend à coloniser l’ensemble des sphères de l’existence humaine par une dynamique d’accumulation basée sur l’extraction des données et le développement accéléré de l’IA. Le capitalisme ne se réduit pas à un rapport de force entre classes antagonistes : il représente bel et bien une totalité sociale. Or, il faut également éviter le piège fataliste des approches surplombantes et réifiantes, et analyser en détail les rapports de pouvoir et les conflits qui se déploient dans le sillon de la montée du capital algorithmique. Il est donc nécessaire, pour une théorie critique des algorithmes, d’articuler les deux logiques distinctes, mais complémentaires du capital : « la logique du capital comme système achevé » et « la logique stratégique de l’affrontement[12] ».

Quelles possibilités d’émancipation?

L’accent plus ou moins grand porté sur la logique du capital (comme dynamique totalisante) ou la stratégie d’affrontement (faisant intervenir l’agentivité des acteurs) implique une évaluation différenciée des possibilités d’émancipation sous le capitalisme algorithmique. Des approches centrées sur la lutte des classes soutiennent parfois que l’impact de l’IA est grandement exagéré par les capitalistes, lesquels visent à effrayer le mouvement ouvrier des dangers imminents de l’automation. Astra Taylor soutient par exemple que les récits catastrophistes liés à l’arrivée des robots et du chômage technologique de masse sont des tentatives délibérées d’intimider et de discipliner les travailleurs et travailleuses en brandissant le discours idéologique de ce qu’elle nomme la fauxtomation[13]. Sans doute, des capitalistes utilisent-ils cette rhétorique de la sorte. Nous aurions tort cependant de minimiser l’impact de l’IA sur le processus de travail, les emplois et des secteurs entiers de l’économie. Même si les estimations sur le chômage engendré par l’automation varient grandement (de 9 % à 50 % en fonction des méthodologies utilisées), il faut bien reconnaitre la tendance du capital algorithmique à remplacer les humains par les robots, ou du moins à les compléter, surveiller et contrôler par de nouveaux moyens algorithmiques sophistiqués. S’il pouvait achever sa logique en totalité, le capital algorithmique viserait à développer un capitalisme pleinement automatisé.

À l’opposé du spectre, les auteurs du courant « accélérationniste » évaluent positivement l’horizon d’une automation généralisée, pour autant qu’elle soit combinée à une socialisation des moyens de production[14]. Les technologies algorithmiques jetteraient ainsi les bases d’une économie postcapitaliste au-delà du travail[15]. D’autres courants comme le xénoféminisme et les théoriciens du « capitalisme cognitif » soulignent également le potentiel émancipateur du travail immatériel, des pratiques de collaboration, de l’hybridation humain-machine et des nouvelles technologies[16]. À l’instar de Lénine, selon qui « le communisme, c’est le gouvernement des soviets plus l’électrification du pays », on pourrait dire que les courants anticapitalistes techno-optimistes considèrent aujourd’hui que le cybercommunisme signifie « le revenu de base plus l’intelligence artificielle[17] ». Cela n’est pas sans rappeler la position de Trotsky sur le taylorisme, « mauvais dans son usage capitaliste et bon dans son usage socialiste ». On trouve la vision la plus aboutie de ce marxisme accélérationniste chez Aaron Bastani et sa vision d’un « communisme de luxe entièrement automatisé » (fully automated luxury communism), qui propose l’utopie d’une économie postrareté par le plein déploiement des forces productives algorithmiques au-delà des contraintes de la logique capitaliste. Dans cette perspective, le capital algorithmique creuserait sa propre tombe, en laissant miroiter la possibilité d’un monde pleinement automatisé, basé sur l’extraction de minerai sur les astéroïdes, la production d’aliments synthétiques et la réduction drastique du travail humain[18]. Cette vision parait digne d’un Jeff Bezos ou d’un Elon Musk qui porterait soudainement une casquette socialiste.

Cela dit, il semble bien naïf de croire que l’automation algorithmique soit mauvaise sous les GAFAM, mais bonne sous le socialisme. Loin de poser les bases d’une société au-delà de la misère et des inégalités, le capital algorithmique automatise les différentes formes de domination, contribue à la surexploitation des ressources naturelles et siphonne notre temps d’attention grâce à ses multiples technologies addictives. En d’autres termes, l’extraction toujours plus intense des données et le développement actuel des algorithmes contribuent à créer les bases d’un capitalisme pleinement automatisé, accélérant la pénurie de temps et de ressources naturelles.

Enfin, il serait trompeur de se limiter à la logique du capital, en omettant les stratégies d’affrontement qui peuvent dégager des possibilités d’émancipation pour dépasser l’horizon du capitalisme automatisé. À la différence des courants technosceptiques et néoluddites qui refusent en bloc les technologies algorithmiques, il existe différentes perspectives de résistance et des stratégies anticapitalistes visant une potentielle réappropriation collective des données et des algorithmes[19]. Il est possible d’envisager les potentialités et limites liées à la planification algorithmique dans une optique d’autolimitation écologique, de justice sociale et de démocratie radicale[20].

Le capitalisme algorithmique comme ordre social institutionnalisé

Nancy Fraser a développé durant les dernières années une théorie globale du capitalisme qui comprend non seulement un mode de production économique spécifique, mais aussi une articulation avec la nature, les pouvoirs publics et le travail de reproduction sociale[21]. Cette reconceptualisation permet de saisir l’imbrication du capitalisme avec les inégalités de genre et la crise du care (les soins), les dynamiques d’expropriation et d’exploitation au sein du capitalisme racialisé, ainsi que les dynamiques complexes qui alimentent la crise écologique, laquelle exacerbe les inégalités raciales, économiques et environnementales. Ce cadre conceptuel large inspiré du féminisme marxiste permet de saisir l’enchevêtrement des multiples systèmes de domination (capitalisme, patriarcat, racisme, etc.) et d’éclairer les « luttes frontières » présentes dans différents recoins du monde social. La perspective critique de Fraser nous semble ainsi la meilleure porte d’entrée pour brosser un portrait systématique de la société capitaliste qui nous permettra ensuite de mieux comprendre comment les technologies algorithmiques reconfigurent celle-ci.

Nancy Fraser propose de voir le capitalisme comme un ordre social institutionnalisé. Que cela signifie-t-il ? Fraser définit d’abord la production capitaliste en la définissant par quatre caractéristiques fondamentales : 1) la propriété privée des moyens de production ; 2) le marché du travail ; 3) la dynamique d’accumulation ; 4) l’allocation des facteurs de production et du surplus social par le marché. Le capital algorithmique reconfigure les modèles d’entreprise (hégémonie des plateformes numériques), les formes du travail (travail digital et travail algorithmique), la dynamique d’accumulation (par l’extraction de données et les algorithmes), ainsi que l’apparition de nouveaux marchés (marchés des produits prédictifs, etc.). Mais cette caractérisation sommaire du système économique capitaliste reste largement insuffisante.

Selon Fraser, la « production économique » repose en fin de compte sur l’exploitation de trois sphères « non économiques » : la nature, le travail de reproduction sociale et le pouvoir politique, qui représentent ses conditions de possibilité. Loin de nous concentrer sur la seule économie capitaliste, il faut s’attarder sur les différentes sphères de la société capitaliste à l’ère des algorithmes. L’avantage de la perspective de Fraser est de décentrer l’analyse de la contradiction économique capital/travail pour mettre en lumière les multiples tendances à la crise du capitalisme sur le plan social, démocratique et écologique : « La production capitaliste ne se soutient pas par elle-même, mais parasite la reproduction sociale, la nature et le pouvoir politique. Sa dynamique d’accumulation sans fin menace de déstabiliser ses propres conditions de possibilité[22]. » Aujourd’hui, le capital algorithmique cherche à résoudre ses multiples crises et contradictions par l’usage intensif des données et de l’intelligence artificielle : innovations technologiques pour accélérer la transition écologique (efficacité énergétique, agriculture 4.0, voitures autonomes, robots pour nettoyer les océans), soutien des tâches domestiques et de reproduction sociale (maisons intelligentes, plateformes de services domestiques, robots de soins pour s’occuper des personnes ainées et des enfants), solutions des crises de gouvernance (ville intelligente, optimisation de l’administration publique, police prédictive, dispositifs de surveillance), etc.

Cela dit, la théorie de Fraser souffre d’un oubli majeur : elle n’aborde pas du tout la question technologique. Elle analyse l’évolution historique du capitalisme à travers ses différents stades ou régimes d’accumulation, mais elle s’arrête au stade du capitalisme néolibéral, financiarisé et mondialisé. Or, il semble bien que l’infrastructure technologique représente une autre condition de possibilité du capital, que Fraser omet de mettre dans son cadre théorique : sans système de transport et de communication, sans machines et sans outils techniques, il semble difficilement possible de faire fonctionner le capitalisme, y compris dans ses variantes mercantiles et préindustrielles. Autrement dit, Fraser semble avoir oublié les conditions générales de production dans sa théorie globale du capitalisme, y compris les technologies algorithmiques qui contribuent aujourd’hui à sa métamorphose. Pour combler cette lacune, il nous semble donc essentiel de compléter le portrait avec les contributions névralgiques de Shoshana Zuboff et de Kate Crawford, qui jettent un regard perçant sur les dimensions technologiques de l’économie contemporaine, laquelle repose de plus en plus sur la surveillance et sur l’industrie extractive de l’intelligence artificielle.

Le capitalisme de surveillance comme industrie extractive planétaire

Le livre L’âge du capitalisme de surveillance de Shoshana Zuboff offre un portrait saisissant des mutations de l’économie numérique qui a vu naitre l’émergence de nouveaux modèles d’affaires basés sur l’extraction de données personnelles et le déploiement d’algorithmes centrés sur la prédiction de comportements futurs[23]. Alors que le développement technologique des ordinateurs et de l’Internet aurait pu mener à diverses configurations socioéconomiques, une forme particulière de capitalisme a pris le dessus au début des années 2000 avant de dominer complètement le champ économique et nos vies. Voici comment Zuboff définit ce nouveau visage du capitalisme contemporain :

Le capitalisme de surveillance revendique unilatéralement l’expérience humaine comme matière première gratuite destinée à être traduite en données comportementales. Bien que certaines données soient utilisées pour améliorer des produits ou des services, le reste est déclaré comme un surplus comportemental propriétaire qui vient alimenter des chaines de production avancées, connues sous le nom d’« intelligence artificielle », pour être transformé en produits de prédiction qui anticipent ce que vous allez faire, maintenant, bientôt ou plus tard. Enfin, ces produits de prédiction sont négociés sur un nouveau marché, celui des prédictions comportementales, que j’appelle les marchés de comportements futurs. Les capitalistes de surveillance se sont énormément enrichis grâce à ces opérations commerciales, car de nombreuses entreprises sont enclines à miser sur notre comportement futur[24].

Zuboff fournit une excellente porte d’entrée pour comprendre la mutation fondatrice du capital à l’aube du XXIe siècle : l’extraction et la valorisation des données par le biais d’algorithmes se retrouvent maintenant au cœur du processus d’accumulation du capital. Elle offre aussi une deuxième contribution majeure. Selon elle, le capital de surveillance n’est pas réductible à un simple processus économique ; il donne lieu à l’émergence d’une nouvelle forme de pouvoir inquiétante : le pouvoir instrumentarien, soit « l’instrumentation et l’instrumentalisation du comportement à des fins de modification, de prédiction, de monétisation et de contrôle[25] ». Cette « gouvernementalité algorithmique » ne sert pas seulement à extraire de la valeur par le biais de publicités ciblées qui anticipent nos comportements futurs ; ces machines prédictives visent aussi à influencer, à contrôler, à nudger (donner un coup de pouce) et à manipuler nos conduites quotidiennes. Cette nouvelle logique de pouvoir dans différentes sphères de la vie sociale, économique et politique confère à cette configuration du capitalisme sa plus grande emprise sur les rapports sociaux et notre relation au monde.

Une limite de l’approche zuboffienne est qu’elle insiste beaucoup, voire peut-être trop, sur la question de la surveillance et de l’appropriation des données personnelles. Sa théorie a le mérite de décortiquer la nouvelle logique d’accumulation du capital et les mécanismes inédits de contrôle algorithmique des individus, mais elle finit par déboucher sur le « droit au temps futur », le « droit au sanctuaire », et autres revendications qui se limitent à la protection de la vie privée. La théorie de Zuboff ne permet pas vraiment de thématiser les injustices en termes de classe, de sexe et de « race » qui sont amplifiées par la domination algorithmique. Elle suggère un recadrage du capitalisme, soulignant la contradiction fondamentale entre l’extraction des données et le respect de la vie privée. La critique de l’exploitation du travail par le capital chez Marx est ainsi remplacée par la critique de l’extraction/manipulation de la vie intime des individus dans leur quotidien. Ce n’est donc pas un hasard si Zuboff passe sous silence le rôle du travail, l’extraction des ressources naturelles et les enjeux géopolitiques dans son cadre d’analyse. Pour nous, la surveillance ne représente que l’un des nombreux visages du capital algorithmique, qui a des conséquences beaucoup plus étendues.

C’est la raison pour laquelle il nous semble essentiel de compléter ce premier aperçu de Zuboff par un portrait élargi des nombreuses ramifications de l’IA dans le monde contemporain à travers l’approche riche et originale de Kate Crawford. Celle-ci propose de dépasser l’analyse étroite de l’IA qui est devenue monnaie courante de nos jours et qui la voit comme une simple forme de calcul, un outil comme le moteur de recherche de Google ou encore ChatGPT. Bien que ces multiples descriptions ne soient pas fausses, elles dissimulent néanmoins toute une infrastructure complexe en concentrant notre attention sur des technologies isolées, abstraites, rationnelles et désincarnées :

Au contraire, l’intelligence artificielle est à la fois incarnée et matérielle, faite de ressources naturelles, d’énergies fossiles, de travail humain, d’infrastructures, de logistiques, d’histoires et de classifications. Les systèmes d’IA ne sont pas autonomes, rationnels, ou capables de discerner sans un entraînement computationnel extensif et intensif basé sur de larges ensembles de données, de règles et de récompenses prédéfinies. Et compte tenu du capital requis pour bâtir l’IA à large échelle et des manières de voir qui optimisent celle-ci, les systèmes d’IA sont ultimement conçus pour servir les intérêts établis dominants. En ce sens, l’intelligence artificielle entre dans le registre du pouvoir[26].

Pour Crawford, on ne peut comprendre les algorithmes adéquatement, d’un point de vue strictement technique, sans les insérer au sein de structures et systèmes sociaux plus larges. Crawford élargit notre champ de vision en montrant que l’IA repose sur l’extraction généralisée de minerais, d’énergie, de travail humain, de données, d’affects et d’éléments de nos institutions publiques. C’est pourquoi elle propose de concevoir l’IA d’un point de vue matérialiste et holistique, en évitant les pièges d’une vision trop formelle et idéaliste telle que véhiculée par l’éthique des algorithmes.

Néanmoins, cette vision donne un aperçu encore trop parcellaire et fragmenté de ce système en voie de consolidation. La riche cartographie de Crawford donne à voir les multiples visages, territoires et manifestations de ce phénomène complexe, mais sans fournir une grille d’analyse, un cadre conceptuel ou une théorie globale permettant d’expliquer et de comprendre ces différents enjeux dans un tout cohérent. C’est pourquoi il nous semble essentiel de comprendre l’enchevêtrement complexe entre la technologie, le pouvoir et le capital au sein d’une théorie globale du capitalisme algorithmique qu’il reste à déployer[27].

Par Jonathan Martineau, professeur adjoint au Liberal Arts College de l’Université Concordia et Jonathan Durand Folco, professeur à l’École d’innovation sociale Élisabeth-Bruyère de l’Université Saint-Paul.


NOTES

Cet article est une version remaniée de la thèse 2 du livre de Jonathan Martineau et Jonathan Durand Folco, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Montréal, Écosociété, 2023.

  1. Nancy Fraser et Rahel Jaeggi, Capitalism. A Conversation in Critical Theory, Cambridge, Polity Press, 2018.
  2. Viktor Mayer-Schönberger et Thomas Ramge, Reinventing Capitalism in the Age of Big Data, New York, Basic Books, 2018.
  3. Voir par exemple Nick Dyer-Witheford, Atle Mikkola Kjøsen et James Steinhoff, Inhuman Power. Artificial Intelligence and the Future of Capitalism, Londres, Pluto, 2019.
  4. Cité par Ezra Klein, « The imminent danger of A.I. is one we’re not talking about », The New York Times, 26 février 2023.
  5. NDLR. Terminator est un film américain de science-fiction sorti en 1984 où le Terminator est une créature robotisée programmée pour tuer.
  6. Ajay Agrawal, Joshua Gans et Avi Goldfarb, Prediction Machines. The Simple Economics of Artificial Intelligence, Boston, Harvard Business Review Press, 2018.
  7. Philippe de Grosbois, Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique, Montréal, Écosociété, 2018, p. 30.
  8. NDLR. Mouvement de militants et militantes et de scientifiques dont la mission est d’utiliser la science des données pour améliorer la vie des Noirs·es.
  9. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016, p. 38.
  10. Ibid., p. 60.
  11. Pierre Dardot et Christian Laval, Marx, prénom : Karl, Paris, Gallimard, 2012.
  12. Astra Taylor, « The automation charade », Logic, n5, 2018.NDLR. Fauxtomation est un mot inventé par Taylor et formé de « faux » et d’« automatisation » pour exprimer comment le travail accompli grâce à l’effort humain est faussement perçu comme automatisé.
  13. Nick Srnicek et Alex Williams, Inventing the Future. Postcapitalism and a World Without Work, Brooklyn, Verso, 2015.
  14. Paul Mason, Postcapitalism. A Guide to Our Future, Londres, Allen Lane, 2015.
  15. Helen Hester, Xenofeminism, Cambridge (UK) /Medford (MA), Polity Press, 2018 ; Laboria Cuboniks (Collectif), The Xenofeminist Manifesto. A Politics for Alienation, Brooklyn, Verso, 2018 ; Michael Hardt et Antonio Negri, Empire, Paris, Exils, 2000 ; Yann Moulier Boutang, Le capitalisme cognitif. La nouvelle grande transformation, Paris, Amsterdam, 2007.
  16. Dyer-Witheford, Kjøsen et Steinhoff, Inhuman Power, 2019, op. cit., p. 6.
  17. Aaron Bastani, Fully Automated Luxury Communism, Londres, Verso, 2020.
  18. Voir à ce sujet, Jonathan Durand Folco et Jonathan Martineau, « Cartographier les résistances à l’ère du capital algorithmique », Revue Possibles, vol. 45, n° 1, 2021, p. 20-30.
  19. Cédric Durand et Razmig Keucheyan, « Planifier à l’âge des algorithmes », Actuel Marx, n° 1, 2019, p. 81-102.
  20. Nancy Fraser, « Behind Marx’s hidden abode », New Left Review, n86, 2014 ; Nancy Fraser, « Expropriation and exploitation in racialized capitalism : a reply to Michael Dawson », Critical Historical Studies, vol. 3, no 1, 2016 ; Nancy Fraser, « Contradictions of capital and care », Dissent, vol. 63, no 4, 2016, p. 30‑37 ; Fraser et Jaeggi, Capitalism, 2018, op. cit ; Nancy Fraser, « Climates of capital », New Left Review, no 127, 2021.
  21. Fraser et Jaeggi, Capitalism, 2018, op. cit., p. 22.
  22. Soshana Zuboff, L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  23. Ibid., p. 25.
  24. Ibid., p. 472.
  25. Kate Crawford, Contre-atlas de l’intelligence artificielle. Les coûts politiques, sociaux et environnementaux de l’IA, Paris, Zulma, 2022, p. 8.
  26. C’est là l’objet des 20 thèses de notre livre, Le capital algorithmique, 2023, op. cit.

 

Penser politiquement les mutations du capitalisme à l’ère de l’intelligence artificielle

14 avril, par Rédaction

La plupart des écrits qui abordent la question de l’intelligence artificielle à l’heure actuelle, qu’ils soient critiques ou apologétiques, ont la fâcheuse tendance à réifier le caractère inédit d’une nouvelle forme de capitalisme, tantôt qualifié d’informationnel, de numérique, de surveillance ou d’algorithmique, qui serait induite par l’exploitation massive des données numériques. En n’expliquant pas comment ces transformations s’inscrivent dans la continuité avec les dynamiques structurelles plus larges du capitalisme de l’après-guerre, que j’ai qualifiées ailleurs de « révolution culturelle du capital[1] », ces analyses participent bien souvent à leur insu à la dépolitisation de la technique et de l’économie, ce qui empêche de penser les conditions de la possibilité d’un dépassement de la logique de domination dépersonnalisée inscrite dans la configuration même de l’intelligence artificielle. Dans cet article, je soutiens que si la critique de l’économie politique s’avère essentielle pour comprendre les développements de l’intelligence artificielle, il est nécessaire de dépasser son cadre d’analyse strictement économiciste afin de saisir les transformations qualitatives opérées dans le mode de reproduction des sociétés capitalistes avancées qui sont générées par la logique cybernétique de régulation sociale au fondement de l’intelligence artificielle.

L’intelligence artificielle, une forme de technologie spécifiquement capitaliste

Afin de réfléchir politiquement à l’intelligence artificielle, il convient d’emblée d’adopter une posture critique à l’endroit de la technique en elle-même. L’idéologie libérale dominante postule que la technique est neutre, c’est-à-dire qu’elle ne serait pas modelée par les rapports sociaux et qu’elle participerait au progrès des sociétés de manière évolutive et linéaire suivant l’adage selon lequel « comme on ne peut pas arrêter le progrès, il faut s’y adapter, en faisant un usage éthique et responsable d’une intelligence artificielle inclusive et respectueuse de la diversité ». Ce prêt-à-penser qui agit comme un discours de légitimation des transformations contemporaines du capitalisme fait l’impasse sur la nature de la technique. Celle-ci n’est pas neutre, elle exprime plutôt des rapports sociohistoriques de domination, bref, c’est de l’idéologie matérialisée.

Suivant cette posture critique, il convient donc d’historiciser l’émergence de l’intelligence artificielle dans la continuité des premiers travaux du domaine de la cybernétique qui apparaissent dans le contexte de la Seconde Guerre mondiale. Derrière l’apparente neutralité de cette nouvelle science du contrôle et de la communication, on retrouve le financement du complexe militaro-industriel américain qui cherchait à développer une conception technocratique et dépolitisée de régulation sociale face à la montée de l’attrait pour le socialisme dans les pays périphériques[2]. En plus de la révolution cybernétique, les développements contemporains de ce que certains nomment le capitalisme de surveillance ou de plateforme tirent également leur origine de la révolution managériale[3] qui est concomitante à l’avènement de la corporation, ou société anonyme par actions, comprise comme la forme institutionnelle prédominante du capitalisme avancé[4]. Cette mutation institutionnelle est fondamentale puisque la médiation des rapports sociaux au moyen du marché est remplacée par le contrôle communicationnel exercé par la corporation sur son environnement interne (les employé·es) et externe (les consommateurs·trices, les États, les autres firmes). En effet, le management se base sur le postulat cybernétique selon lequel l’organisation est un système de circulation et de contrôle de l’information qui permet sa reproduction élargie[5]. Les critiques du capitalisme de surveillance comme Zuboff[6] oublient généralement de situer historiquement cette « nouvelle » forme de capitalisme. En effet, l’émergence de la corporation au début du XXe siècle va modifier substantiellement la régulation de la pratique sociale en ce qu’il s’agira désormais de modifier les attitudes des individus afin d’arrimer la dynamique de surproduction du système industriel à celle de la surconsommation[7]. C’est en effet à cette époque que le marketing développera les techniques de surveillance des individus et de captation de l’attention qui sont à l’origine des outils de profilage des comportements des consommateurs utilisés par les géants du numérique (GAFAM). À côté de la publicité et du secteur financier, les premiers développements dans le domaine de l’intelligence artificielle tout comme l’ancêtre de l’Internet, ARPANET, s’expliquent par la nécessité d’absorber le surplus de valeur généré par la suraccumulation capitalistique des grandes corporations au moyen des dépenses publiques dans le domaine militaire afin de maintenir la croissance économique[8]. Le complexe militaro-industriel devrait en ce sens être rebaptisé « national-security, techno-financial, entertainment-surveillance complex[9] » (sécurité nationale, techno-financière, divertissement-surveillance) puisqu’il exprime la spécificité de l’impérialisme américain de l’après-guerre qui, en prenant appui sur la cybernétique, ne vise pas uniquement à exporter ses capitaux, mais également à étendre le modèle de la société machinique américaine à l’ensemble de la planète.

Intelligence artificielle et transformations institutionnelles du capitalisme avancé

Il faut donc éviter de tomber dans le piège dans lequel sont tombés plusieurs commentateurs depuis les mirages de la nouvelle économie à la fin des années 1990 selon lequel l’économie numérique serait propulsée par une nouvelle logique d’accumulation axée sur le savoir, les données numériques ou encore les algorithmes. En réalité, cette « nouvelle » logique d’accumulation remonte au début du XXe siècle avec l’avènement de la corporation. C’est l’économiste institutionnaliste Thorstein Veblen qui fut le premier à analyser les conséquences du passage d’un capitalisme libéral vers le capitalisme dit avancé[10]. Dans ce contexte, l’accumulation du capital ne s’effectue plus au moyen de la concurrence par les prix, mais plutôt au moyen de pratiques rentières de prédation de la valeur qui s’appuient sur l’exploitation d’actifs dits intangibles, c’est-à-dire par des droits de propriété intellectuelle, des brevets, des marques de commerce, des fusions et acquisitions, des alliances stratégiques avec d’autres entreprises, ou encore par des ententes formelles et informelles avec les gouvernements[11]. Au sein des sociétés capitalistes avancées, les principes de concurrence dans le cadre d’un marché autorégulé sont remplacés par la capacité de contrôle sur l’économie et l’ensemble de la société opérée par les grandes organisations corporatives. En clair, le marché est remplacé par la planification au sein des corporations dont le pouvoir repose sur leur capacité de capitaliser des flux de revenus futurs dans les marchés financiers.

Relativement marginaux au début du XXe siècle, les actifs intangibles représentent à l’heure actuelle 95 % de la valeur des cinq plus grandes corporations cotées en bourses, c’est-à-dire les GAFAM[12]. En ce sens, la spécificité du capitalisme contemporain ne repose pas tant sur l’émergence d’une nouvelle forme de « travail digital », immatériel ou cognitif, ou encore sur une nouvelle forme de marchandise prédictive produite par des algorithmes, mais plutôt sur la valorisation financière d’une nouvelle classe d’actifs intangibles que sont les données numériques. Le pouvoir de capitalisation des géants du numérique s’appuie sur l’appropriation de la valeur qui provient de l’économie productive, c’est-à-dire le travail abstrait en langage marxien, lequel est produit à l’extérieur des frontières légales de ces corporations. En termes marxiens, la valeur d’une marchandise correspond à la représentation du temps de reproduction de la force de travail[13]. Selon cette acception, il ne fait aucun sens de parler de valeur d’un produit de la connaissance, tel que l’information, les données numériques ou les algorithmes, puisque le temps de reproduction d’une connaissance tend vers zéro. Ainsi, la logique d’accumulation rentière du capitalisme numérique consiste à restreindre l’accès à la connaissance commune qui est produite socialement en vue d’en faire un actif intangible, ce qui signifie qu’elle consiste à s’approprier la valeur qui est produite à l’extérieur de l’entreprise[14].

La montée en puissance des plateformes numériques s’inscrit dans le contexte de la financiarisation de l’économie, où les normes de la valeur actionnariale ont imposé des rendements excessifs et court-termistes aux corporations; ces dernières ont été contraintes de sous-traiter une partie de leurs activités les plus risquées, notamment celles de recherche et développement. C’est dans ce contexte également qu’une série de politiques de dérèglementations complémentaires au sein des secteurs de la finance, des communications et de la recherche a permis de transformer la connaissance en actifs financiers pouvant être capitalisés dans la sphère financière. La loi Bay-Dohle aux États-Unis est considérée comme l’acte fondateur de cette « nouvelle économie du savoir » en ce qu’elle a permis de commercialiser sous forme de brevets la recherche financée publiquement, une pratique qui était interdite auparavant en vertu des principes de la science ouverte[15]. De manière concomitante, les politiques de dérèglementation des fonds de pension américains ont permis à ces derniers d’investir dans des firmes qui ne déclaraient aucun revenu, mais qui possédaient de nombreux actifs intangibles[16], ce qui a nourri la gigantesque bulle spéculative qui a éclaté lors du krach de la nouvelle économie en 2000. Dans le secteur des communications, les politiques de dérèglementation ont permis la convergence des médias avec les firmes technologiques, pavant la voie à la création de l’oligopole du numérique dominé par les GAFAM[17].

Si la propriété intellectuelle était au cœur de la première phase de déploiement de l’économie numérique (1990-2000), c’est plutôt la question des données numériques qui surgira comme nouvelle source de valorisation à la suite de la crise financière de 2008[18]. En effet, les grandes plateformes ont développé un modèle d’affaires consistant à transformer les données personnelles en un actif intangible qui est valorisé dans la sphère financière[19]. Cette dynamique économique rentière permet aux plateformes de s’approprier la valeur générée par l’économie productive, participant ainsi à la consolidation des monopoles de la connaissance transnationaux[20]. Comme la rente consiste essentiellement en une construction institutionnelle, la production d’un discours qui prend la forme d’une convention d’interprétation est nécessaire afin de fonder la confiance des investisseurs financiers. L’emballement médiatique entourant la révolution instaurée par l’intelligence artificielle générative rendue possible au moyen des algorithmes d’apprentissage automatique (machine learning) et d’apprentissage profond (deep learning)[21] doit être compris comme un discours produit par la communauté financière visant à nourrir l’espoir que les revenus futurs de ce secteur seront suffisamment élevés pour justifier l’investissement[22].

La puissance des GAFAM repose donc sur leur capacité à quantifier l’inquantifiable – les sentiments humains, l’amour, le jugement, la créativité, etc. – pour ainsi transformer l’ensemble de la vie sociale en flux de revenus futurs qu’ils sont en mesure de s’approprier. Les GAFAM usent de diverses stratégies extraéconomiques afin de transférer de la survaleur provenant d’autres secteurs de l’activité productive dans une dynamique rentière et à restreindre l’accès aux flux de revenus à d’autres capitalistes subordonnés. En effet, la production physique des biens n’est plus la principale source de profits pour ces entreprises; celles-ci ont recours à la sous-traitance vers des firmes subordonnées dont les travailleuses et les travailleurs sont surexploités. Elles misent plutôt sur le contrôle de l’accès à l’information et à la connaissance, que ce soit par les services infonuagiques, l’accès aux profils des utilisatrices et utilisateurs pour la vente de publicité ou encore l’accès à leurs logiciels de traitement automatisé des données numériques.

Les stratégies politiques de capitalisation des GAFAM sont nombreuses, allant de 1) l’accumulation sur les actifs immatériels (brevets, données transformées en actifs); 2) des stratégies politiques visant à influencer les lois en leur faveur (lobbying, évitement fiscal, etc.); 3) une logique de subordination des entreprises sous-traitantes; 4) et le contrôle d’un écosystème de la recherche et développement financé à même les fonds publics. En résumé, les géants du numérique ont mis en place une chaine globale d’appropriation de la valeur qui prend la forme d’un écosystème corporatif d’innovation qui leur permet de socialiser les risques et de privatiser les profits.

La dissolution de la société dans la régulation algorithmique du social

Comme je l’ai souligné précédemment, pour penser politiquement l’intelligence artificielle, il est nécessaire d’interroger l’idéologie qui est sous-jacente au développement des entreprises numériques afin de dépasser l’analyse strictement économique qui ne permet pas de saisir les transformations qualitatives qui se sont opérées dans le mode de régulation des sociétés capitalistes avancées dans leur ensemble. L’histoire des sciences et des technologies montre que derrière le développement des algorithmes autoapprenants qui permettent aux plateformes de collecter les données numériques, de les traiter et de les modéliser à des fins d’anticipation des comportements, on retrouve une conception de l’individu et de la société qui s’inspire des thèses de l’économiste néolibéral Friedrich Hayek. En effet, les algorithmes utilisés par les plateformes numériques s’appuient sur le modèle des réseaux de neurones développé par le psychologue Frank Rosenblat dans les années 1950 dont l’une des principales sources d’inspiration est la pensée d’Hayek[23]. L’apport fondamental d’Hayek à la pensée économique fut de redéfinir le marché à partir des postulats de la cybernétique. Il comparera le marché à un système de transmission de l’information semblable à un algorithme auquel les individus, eux-mêmes redéfinis comme des processeurs informationnels, doivent rétroagir[24]. Sur le plan politique, l’argumentaire d’Hayek visait explicitement à démontrer l’impossibilité théorique de la planification de type socialiste. Reconnaitre l’existence d’une entité nommée « société » qui transcenderait les individus conduirait selon lui à reconnaitre la possibilité du socialisme. Selon Hayek, toute tentative de saisir l’ensemble de la réalité sociale et économique en vue d’effectuer une quelconque forme de planification allait mener inévitablement au totalitarisme puisqu’il serait impossible de connaitre les savoirs tacites qui sont détenus par les acteurs individuels. On retrouve également l’influence hayékienne chez l’un des pionniers de l’intelligence artificielle dite symbolique, Herbert Simon, pour qui le principal objectif de l’intelligence artificielle est d’incorporer la rationalité idéalisée de l’entrepreneur capitaliste telle qu’on la retrouve dans les théories économiques néoclassiques[25]. En bon disciple du père du management, Frederick Winslow Taylor, pour qui il fallait fragmenter l’activité des travailleurs manuels afin de mieux les contrôler, Simon conceptualisera l’intelligence artificielle comme la décomposition du processus de prise de décision dans une organisation en vue de le rendre plus efficient dans le contexte où il est impossible d’avoir accès à l’ensemble des informations dans un environnement complexe. Dans sa théorisation de l’intelligence artificielle, Simon reprend donc la conception de la rationalité limitée des acteurs économiques qui avait été développée par Hayek dans le cadre de son débat sur le calcul socialiste où il voulait montrer la supériorité du marché face à la planification. Selon Simon, au contraire d’Hayek, une certaine forme de centralisation du pouvoir et de planification est nécessaire dans le cadre d’une économie dominée par les grandes organisations corporatives et il est possible d’effectuer celle-ci grâce à l’intelligence artificielle.

La nouvelle forme de contrôle social théorisée par les technocrates néolibéraux qui ont développé l’intelligence artificielle s’inscrit dans le passage du paradigme politique du gouvernement vers la conception technocratique de la gouvernance algorithmique. Le terme cybernétique provient du mot grec kubernêtes, qui signifie « pilote » ou « gouvernail »; il possède la même racine étymologique que celui de gouvernance. La gouvernance algorithmique correspond à une transformation sociétale fondamentale, que j’ai qualifiée de « révolution culturelle du capital », puisqu’elle repose sur le postulat néolibéral selon lequel « la société n’existe pas ». Si la société n’existe pas, les grandes organisations corporatives n’existeraient également pas, on ne pourrait donc pas les critiquer. Il n’existerait qu’un système composé d’un ensemble d’individus atomisés conçus comme des processeurs informationnels que l’on peut programmer. La gouvernance algorithmique décrit ainsi une nouvelle manière de gouverner propre aux sociétés capitalistes avancées qui consiste à mettre en place des mécanismes de pilotage et de décisions automatisés grâce à une mise en données du réel. La spécificité de la gouvernance algorithmique repose sur le postulat voulant qu’au moyen de l’accumulation, de l’analyse et du traitement d’une gigantesque quantité de données (les big data), il soit possible d’anticiper les évènements avant qu’ils surviennent. Grâce à l’accumulation et au traitement de ces données, il ne serait plus nécessaire de connaitre les causes des problèmes sociaux, comme le prétendait le paradigme politique du gouvernement; il s’agirait plutôt d’agir de manière préemptive sur le réel afin d’empêcher toute transformation structurelle de la société. La gouvernance algorithmique vient ainsi court-circuiter l’ensemble des médiations politiques qui avaient pour ambition d’instituer politiquement des finalités normatives communes en vue de l’émancipation collective. S’appuyant sur une logique d’hyperpersonnalisation, la gouvernance algorithmique a ainsi la prétention de produire une norme qui colle immédiatement à chacun des individus[26]. Il s’agit de la réalisation en acte du fantasme postmoderne d’un monde sans représentation commune de la réalité. C’est la possibilité de débattre de l’écart entre la norme et le fait, donc le fondement même du politique qui est anéanti dans le cadre d’une nouvelle dictature de l’état de fait qui vise à assurer le maintien du statu quo.

L’idéal d’autogestion qu’on retrouvait au cœur de l’idéologie californienne[27], laquelle a légitimé la montée en puissance des géants du numérique s’est ainsi mutée en egogestion, c’est-à-dire en gestion techno-bureaucratique d’individus particularisés qui, bien qu’émancipés des institutions sociales, se trouvent toujours plus dépendants de la capitalisation de leur existence[28]. En ce sens, en plus de constituer un lieu d’accumulation du capitalisme financiarisé, les plateformes numériques peuvent être considérées comme des dispositifs néolibéraux de subjectivation. Leur configuration réticulaire permet aux usagères et aux usagers de quantifier leurs activités et celles des autres, notamment en comparant leur popularité en fonction du nombre de contacts accumulés, participant ainsi à l’intégration de la rationalité cybernétique et néolibérale dans leur vie quotidienne. Les plateformes de type GAFAM ‒ en offrant des services personnalisés aux individus egogrégaires qui refusent d’adhérer à une quelconque forme de culture commune ‒ viennent court-circuiter le pouvoir des institutions politiques sous prétexte que la prise en charge des problèmes sociaux (en santé, environnement, culture, éducation, etc.) par les algorithmes est plus efficace que les services publics.

Penser un monde postcapitaliste et postnumérique

En résumé, la stratégie de prédation des plateformes numériques consiste en ce que David Harvey nomme une accumulation par dépossession[29]. En effet, les GAFAM investissent massivement à l’heure actuelle dans les domaines qui sont considérés comme relevant des services publics ou du bien commun, notamment, la culture, la santé et l’éducation[30]. L’introduction des technologies numériques et de l’intelligence artificielle dans ces secteurs vise à transformer l’ensemble de l’activité sociale en données qui deviendront des actifs sur lesquels les géants technologiques pourront ponctionner une rente. C’est pourquoi le combat pour la défense des services publics doit impérativement être lié à une opposition farouche face à la numérisation généralisée du monde.

Pour penser politiquement une sortie du capitalisme à l’ère numérique, il faut se défaire de la conception fallacieuse selon laquelle il suffirait de mettre en place des règles éthiques afin d’encadrer l’usage de l’intelligence artificielle afin que l’innovation technologique soit plus équitable, plus représentative de la diversité et plus inclusive. L’intelligence artificielle est une technologie spécifiquement capitaliste en ce qu’elle est le produit du « national-security, techno-financial, entertainment-surveillance complex ». L’intelligence artificielle correspond à l’aboutissement de la logique d’abstraction et de quantification de l’activité humaine qu’on retrouve au fondement de la domination dépersonnalisée du capitalisme. Comme la marchandise, la technique moderne agit comme un fétiche, c’est-à-dire qu’elle fait écran. L’intelligence artificielle masque les immenses flux d’énergie humaine et naturelle nécessaires à son fonctionnement, elle fait donc écran sur le fait que son « usage » est prédéterminé par des impératifs productivistes et destructeur de l’environnement[31]. Comme le signalait l’historien de l’économie Harold Innis, toute technologie possède un biais qui s’exprime en termes spatiotemporels permettant à la classe dominante de contrôler l’espace et le temps et ainsi de monopoliser la connaissance[32]. Selon Innis, au sein des technologies de communication à l’ère industrielle, on retrouve une conception abstraite et mécanique du temps qui conduit à une forme de présentisme qui a pour effet de nous rendre amnésiques face à la réalité du développement aveugle des sociétés capitalistes. Depuis trois siècles, cette dernière vise la mise en place de moyens toujours plus perfectionnés pour automatiser les procédures de production, de décision et de contrôle, et expulser la subjectivité humaine au profit de mécanismes pseudo-objectifs, et ce, afin d’assurer la « soumission durable » de l’humanité à la mégamachine capitaliste et à son monopole de la connaissance automatisée. En ce sens, il est illusoire de croire qu’une révolution pourrait être orchestrée à partir des plateformes numériques comme Facebook ou TikTok puisque leur configuration encourage des comportements tyranniques de la part d’individus narcissiques qui, équipés d’outils leur donnant un sentiment d’omnipotence abstraite, mais politiquement impotents, cherchent à prendre leur revanche sur ce qui subsiste encore de monde commun en exprimant leur colère et leur ressentiment en ligne. Cette pratique, bien qu’elle n’ait aucune incidence sur la logique du système, même qu’elle le nourrit, fait uniquement office de catharsis[33]. Bref, pour paraphraser Rosa Luxembourg, ou bien la société postcapitaliste sera postnumérique, ou bien on s’enfonce dans la barbarie technologique[34].

Par Maxime Ouellet, Professeur à l’École des médias de l’UQAM.


NOTES

  1. Maxime Ouellet, La révolution culturelle du capital. Le capitalisme cybernétique dans la société globale de l’information, Montréal, Écosociété, 2016.
  2. Steve Joshua Heims, The Cybernetics Group, Cambridge (MA), The MIT Press, 1991.
  3. James Burnham, The Managerial Revolution. What is Happening in the World, New York, John Day Co., 1941.
  4. John Bellamy Foster et Robert McChesney, « Surveillance capitalism : monopoly-finance capital, the military-industrial complex, and the digital age », Monthly Review, vol. 66, n° 3, 2014 ; Nick Srnicek, Capitalisme de plateforme. L’hégémonie de l’économie numérique, Montréal, Lux, 2018.
  5. Baptiste Rappin, Au fondement du management. Théologie de l’organisation. Volume 1, Nice, Les éditions Ovadia, 2014.
  6. Soshana Zuboff, The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019. En français: L’âge du capitalisme de surveillance, Paris, Zulma, 2020.
  7. Stuart Ewen, Conscience sous influence, Paris, Aubier Montaigne, 1983.
  8. Foster et McChesney, op. cit., 2014.
  9. Thimoty Erik Ström, « Capital and cybernetics », New Left Review, n° 135, mai-juin 2022, p. 23-41.
  10. Éric Pineault, « Quelle théorie critique des structures sociales du capitalisme avancé », Cahiers de recherche sociologique, n° 45, 2008, p. 113-132.
  11. Thorstein Veblen, The Theory of the Business Enterprise, New Brunswick, Transaction Books, 1904.
  12. Dick Bryan, Michael Rafferty et Ducan Wigan, « Intangible capital », dans Leonard Seabrooke et Duncan Wigan (dir.), Global Wealth Chains. Asset Strategies in the World Economy, Oxford University Press, 2022, p. 89-113.NDLR. GAFAM : acronyme désignant les géants du Web que sont Google, Apple, Facebook (Meta), Amazon et Microsoft.
  13. Sur cette question, voir Maxime Ouellet, « Le travail en mutation », Nouveaux Cahiers du socialisme, n° 7, 2012, p. 20-31.
  14. À ce sujet, voir Cecilia Rikap, Capitalism, Power and Innovation. Intellectual Monopoly Capitalism Uncovered, New York, Routledge, 2020.
  15. Philip Mirowski, Science-Mart. Privatising American Science, Cambridge (MA), Harvard University Press, 2011.
  16. Fabienne Orsi et Benjamin Coriat, « The new role and status of intellectual property rights in contemporary capitalism », Competition & Change, vol. 10, n° 2, 2006, p. 162-179.
  17. Nikos Smyrnaios, Les GAFAM contre l’internet. Une économie politique du numérique, Paris, Institut national de l’audiovisuel (INA), 2017.
  18. Sébastien Broca, « Communs et capitalisme numérique : histoire d’un antagonisme et de quelques affinités électives », Terminal, no 130, 2021.
  19. Kean Birch et D. T. Cochrane, « Big Tech : four emerging forms of digital rentiership », Science as Culture, vol. 31, n° 1, 2022, p. 44-58.
  20. Ugo Pagano, « The crisis of intellectual monopoly capitalism », Cambridge Journal of Economics, vol. 38, n° 6, 2014, p. 1409-1429.
  21. NDLR. Pour plus d’informations concernant ce vocabulaire, on pourra consulter l’article d’André Vincent dans ce numéro : « Intelligence artificielle 101 ».
  22. André Orléan, L’empire de la valeur. Refonder l’économie, Paris, Seuil, 2011.
  23. Pablo Jensen, Deep earnings. Le néolibéralisme au cœur des réseaux de neurones, Caen, C&F éditions, 2021.
  24. Philip Mirowski, Machine Dreams. Economics Becomes a Cyborg Science, Cambridge, Cambridge University Press, 2000.
  25. Bruce Berman, « Artificial intelligence and the ideology of capitalist reconstruction », AI & Society, n° 6, 1992, p. 103-114.
  26. Antoinette Rouvroy, « Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance », Le Club de Mediapart, 27 août 2012.
  27. Richard Barbrook et Amdy Cameron « The californian ideology », Science as Culture, vol. 6, n° 1, 1996, p. 44-72.
  28. Jacques Guigou, La cité des ego, Paris, L’Harmattan, 2008.
  29. David Harvey, « Le nouvel impérialisme : accumulation par expropriation », Actuel Marx, vol. 35, n° 1, 2004, p. 71-90.
  30. José Van Dijck, Thomas Poell et Martijn de Waal, The Platform Society. Public Values in a Connected World, New York, Oxford University Press, 2018.
  31. Alf Hornborg, La magie planétaire. Technologies d’appropriation de la Rome antique à Wall Street, Paris, Éditions divergences, 2021.
  32. Harold Innis, The Bias of Communication, Toronto, University of Toronto Press, 2008.
  33. Éric Sadin, L’ère de l’individu tyran. La fin d’un monde commun, Paris, Grasset, 2020.
  34. À ce sujet, voir Jonathan Crary, Scorched Earth. Beyond the Digital Age to a Post-Capitalist World, New York, Verso, 2022.

 

Intelligence artificielle 101

11 avril, par Rédaction

Qu’est-ce que l’intelligence artificielle ?

« L’intelligence artificielle (IA, ou AI pour Artificial Intelligence) consiste à mettre en œuvre un certain nombre de techniques visant à permettre aux machines d’imiter une forme d’intelligence réelle. L’IA se retrouve implémentée dans un nombre grandissant de domaines d’application[1]. »

L’intelligence artificielle est donc un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l’intelligence humaine[2].

L’IA s’appuie notamment sur les théories des mathématiques et des sciences cognitives. Elle fait aussi appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique en s’appuyant entre autres sur la théorie des décisions. Par extension, l’IA comprend, dans le langage courant, les dispositifs qui imitent ou remplacent l’humain dans certaines mises en œuvre de ses fonctions cognitives[3].

Évolution de l’IA

L’évolution de l’intelligence artificielle peut être résumée en sept étapes principales[4] :

  • Le temps des prophètes : dans les années 1950, les pionniers de l’IA font des prédictions audacieuses sur les capacités futures des machines, mais ils surestiment largement les progrès à venir.
  • Les années sombres : dans les années 1960 et 1970, l’IA connait un ralentissement et une perte de financement, notamment à cause des limites des méthodes symboliques et des critiques de James Lighthill.
  • Le retour en grâce : dans les années 1980, l’IA bénéficie d’un regain d’intérêt et de soutien, grâce aux succès des systèmes experts, des réseaux de neurones et de la robotique.
  • Le second hiver : dans les années 1990, l’IA subit à nouveau une désillusion et une concurrence accrue d’autres disciplines informatiques, comme les bases de données ou le Web.
  • L’ère du big data : dans les années 2000, l’IA profite de l’explosion des données disponibles et de l’amélioration des capacités de calcul, ce qui lui permet de développer des applications dans de nombreux domaines, comme la reconnaissance vocale, la traduction automatique ou la recherche d’information.
  • L’avènement de l’apprentissage profond : dans les années 2010, l’IA connait une révolution avec l’émergence de l’apprentissage profond, une technique qui utilise des couches successives de neurones artificiels pour apprendre à partir de données complexes et non structurées, comme les images, les sons ou les textes.
  • L’horizon de l’intelligence artificielle générale : dans les années 2020, l’IA se confronte au défi de l’intelligence artificielle générale (IAG), c’est-à-dire à la capacité d’une machine à accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire, voire à dépasser l’intelligence humaine. Ce défi soulève des questions éthiques, sociales et philosophiques, ainsi que des incertitudes sur les impacts de l’IA sur l’humanité.

Définitions

John McCarthy, le principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky, définit l’IA ainsi : « C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire qui consiste à utiliser des ordinateurs pour comprendre l’intelligence humaine, mais l’IA ne doit pas se limiter aux méthodes qui sont biologiquement observables[5] ».

L’IA est également définie par Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le caractère « artificiel » dû à l’usage des ordinateurs ou de processus électroniques élaborés et le caractère « intelligence » associé à son but d’imiter le comportement humain. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.

Les types d’IA

L’intelligence artificielle se décline en trois catégories principales[6] :

  • IA faible (ou IA étroite, restreinte) : ce type d’IA est conçu pour effectuer des tâches spécifiques sans posséder de conscience ou d’intelligence générale. Par exemple, l’IA faible peut être utilisée pour la reconnaissance vocale, la recherche sur Internet ou encore le jeu d’échecs. Cependant, sa capacité d’apprentissage et d’adaptation est limitée à sa programmation initiale. Elle ne peut pas comprendre ni s’adapter en dehors de son domaine de spécialisation défini.
  • IA forte (ou IA générale) : contrairement à l’IA faible, l’IA forte possède une intelligence et une conscience similaires à celles des humains. Elle est capable de résoudre des problèmes dans divers domaines sans être limitée à une seule tâche. En somme, elle reproduit l’intelligence humaine de manière beaucoup plus authentique.
  • IA superintelligente : ce type hypothétique d’IA surpasserait l’intelligence humaine, excédant les capacités humaines dans tous les domaines, de la créativité à la prise de décision. Cependant, à ce jour, ce niveau d’intelligence artificielle n’a pas encore été atteint. De nombreux experts considèrent que l’avènement de ce type d’IA est fortement improbable.

Techniquement, comment ça marche ?

En général, on peut dire que l’IA se compose de quatre éléments clés : la puissance de calcul, les mégadonnées, la prise de décision par les algorithmes et l’argent.

Aujourd’hui, les géants de l’informatique tels que Google, Microsoft, Apple, IBM et Facebook sont tous engagés dans la recherche et le développement de l’IA. Ils ont mis en place des réseaux de neurones artificiels, composés de serveurs capables de traiter des calculs complexes sur de gigantesques quantités de données à des vitesses en croissance exponentielle. Ces réseaux sont conçus pour imiter le fonctionnement du cerveau humain, et permettent à ces systèmes d’apprendre et de s’adapter avec le temps.

Les systèmes d’IA sont formés à partir de grandes quantités de données. Ils utilisent des capacités informatiques pour analyser ces données et, sur cette base, prennent des décisions. C’est cette capacité de prise de décision qui distingue l’IA de nombreuses autres technologies comme les systèmes experts, par exemple.

Ainsi, tous les bots informatiques, les vidéos falsifiées et les images manipulées ne sont pas nécessairement le produit de l’IA. Ce qui compte, c’est si la technologie est capable de prendre des décisions. Un chatbot basé sur des règles, par exemple, renvoie des réponses prédéterminées en fonction de certaines conditions, comme l’utilisation d’un mot-clé. Il n’est pas nécessaire d’utiliser l’IA pour cela.

En revanche, un agent conversationnel utilise le traitement automatique du langage naturel (TLN), un sous-domaine de l’IA, pour extraire des informations du langage humain. Il évalue le contenu et le contexte, puis choisit une ligne de conduite, par exemple les mots à utiliser, la structure de la phrase et le ton à adopter en réponse. Contrairement à un simple chatbot basé sur des règles, un agent conversationnel doté d’IA ne renvoie pas toujours la même réponse à la même question.

Les outils basés sur l’IA comportent donc un certain degré d’incertitude ou de probabilité. Ils utilisent l’apprentissage automatique et la prise de décision algorithmique pour se rapprocher de plus en plus de la réalisation des tâches pour lesquelles ils ont été conçus. Cependant, ils le font d’une manière qui n’a pas été spécifiquement programmée. Les systèmes d’IA ont un certain degré d’autonomie, ce qui les rend beaucoup plus puissants. Cette autonomie est ce qui distingue véritablement l’IA et lui confère sa puissance.

Il existe toutefois une confusion dans le débat public entre intelligence artificielle, apprentissage automatique (machine learning) et apprentissage profond (deep learning). Pourtant, ces notions ne sont pas équivalentes, mais imbriquées. L’intelligence artificielle englobe l’apprentissage automatique, qui lui-même englobe l’apprentissage profond.

word-image-35293-1-3.png?resize=696%2C617&ssl=1

Diagramme de Venn montrant comment s’imbriquent les notions d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond[7].

Apprentissage automatique

L’apprentissage automatique consiste à permettre au modèle d’IA d’apprendre à effectuer une tâche au lieu de spécifier exactement comment il doit l’accomplir. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l’apprentissage. La méthode de la rétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l’ajuster en conséquence. L’apprentissage automatique nécessite un moyen d’évaluer la qualité des réponses fournies par le modèle.

Réseaux de neurones

Les réseaux de neurones artificiels sont inspirés du fonctionnement du cerveau humain : les neurones sont en général connectés à d’autres neurones en entrée et en sortie. Les neurones d’entrée, lorsqu’ils sont activés, agissent comme s’ils participaient à un vote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l’équivalent artificiel, les « neurones d’entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de l’apprentissage.

À part la fonction d’activation, les réseaux de neurones artificiels n’effectuent en pratique que des additions et des multiplications matricielles, ce qui fait qu’ils peuvent être accélérés par l’utilisation de processeurs graphiques. En théorie, un réseau de neurones peut apprendre n’importe quelle fonction.

Apprentissage profond

L’apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les sorties, d’où le terme « profond ». L’utilisation de processeurs graphiques pour accélérer les calculs et l’augmentation des données disponibles a contribué à la montée en popularité de l’apprentissage profond. Il est utilisé notamment en vision par ordinateur, en reconnaissance automatique de la parole et en traitement du langage naturel (ce qui inclut les grands modèles de langage).

Grands modèles de langages

Les grands modèles de langage sont des modèles de langage ayant un grand nombre de paramètres, typiquement des milliards. Ils reposent très souvent sur l’architecture « transformeur ».

Les transformeurs génératifs pré-entrainés (Generative Pretrained Transformers ou GPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entrainement » consiste à prédire, étant donné une partie d’un texte, le token suivant (un token étant une séquence de caractères, typiquement un mot, une partie d’un mot ou de la ponctuation). Cet entrainement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d’accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entrainement, en prédisant un à un les tokens suivants. En général, une autre phase d’entrainement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d’entrainement (utilisant souvent une technique appelée RLHF) permet notamment de réduire un phénomène appelé « hallucination », où le modèle génère des informations d’apparence plausible mais fausses.

Avant d’être fourni au modèle, le texte est découpé en tokens. Ceux-ci sont convertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l’intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d’attention. Les couches d’attention combinent les concepts entre eux, permettant de tenir compte du contexte et de saisir des relations complexes.

Ces modèles sont souvent intégrés dans des agents conversationnels, où le texte généré est formaté pour répondre à l’utilisateur ou l’utilisatrice. Par exemple, l’agent conversationnel ChatGPT exploite les modèles GPT-3.5 et GPT-4. En 2023 font leur apparition des modèles grand public pouvant traiter simultanément différents types de données comme le texte, le son, les images et les vidéos, tel Google Gemini.

Domaines d’application[8]

L’intelligence artificielle trouve des applications variées dans différents domaines. Voici un aperçu de son utilisation en médecine, dans le domaine militaire, le renseignement policier et le droit. On aurait aussi pu donner des exemples dans les domaines de la logistique et du transport, de l’industrie, de la robotique, des arts, de la politique, etc.

  • Médecine
    • Diagnostic et détection précoce : l’IA peut analyser rapidement et précisément de grandes quantités de données médicales, facilitant ainsi le diagnostic précoce de maladies et d’affections. Elle peut détecter des modèles et des signes subtils qui échappent parfois à l’œil humain.
    • Structuration des données des patients : l’IA collecte, analyse et organise méthodiquement les données massives issues des patients et patientes, ce qui facilite leur traitement ultérieur par les professionnels de la santé.
    • Prise en charge thérapeutique : l’IA peut guider les médecins dans la prise en charge thérapeutique des patients en se basant sur des cas passés et en croisant diverses données.
  • Domaine militaire
    • Surveillance et reconnaissance : l’IA est utilisée pour surveiller et reconnaitre des cibles, des mouvements de troupes et des activités ennemies.
    • Prévention des attaques : elle peut aider à anticiper et à prévenir les attaques en analysant des données et des schémas.
    • Assistance au commandement : l’IA peut fournir des informations et des recommandations aux commandants militaires.
    • Gestion de l’approvisionnement et de la logistique : elle optimise la gestion des ressources et des approvisionnements.
    • Contrôle de drones et de robots : l’IA permet de piloter ces dispositifs de manière autonome.
  • Renseignement policier
    • Analyse de données criminelles : l’IA peut aider à analyser des données complexes pour détecter des schémas criminels, des tendances et des menaces potentielles.
    • Identification de suspects : elle peut faciliter l’identification de suspects à partir d’images de vidéosurveillance ou d’autres sources.
    • Prédiction de crimes : l’IA peut anticiper les zones à risque et les moments propices à la criminalité.
  • Droit
    • Recherche juridique : l’IA peut analyser des textes juridiques, des précédents et des décisions de justice pour aider les avocats et les juges dans leurs recherches.
    • Automatisation des tâches juridiques : elle peut automatiser des tâches telles que la rédaction de contrats, la gestion des documents et la facturation.
    • Prédiction des résultats de procès : l’IA peut évaluer les chances de succès d’un procès en fonction des éléments disponibles.

Le matériel de l’artificielle intelligence

Avec les algorithmes et les mégadonnées (big data), le matériel qui sous-tend l’intelligence artificielle est la troisième composante essentielle pour permettre des capacités et des performances exceptionnelles. Il joue un rôle central dans l’innovation moderne et façonne le paysage de l’IA.

Les principales composantes matérielles clés de l’IA sont : les unités de traitement graphique (GPU), les unités de traitement tensoriel (TPU), les unités de traitement neuronal (NPU), les processeurs centraux (CPU), la mémoire et le stockage, les réseaux (réseaux locaux, LAN, et les réseaux étendus, WAN, qui permettent la communication entre les systèmes d’IA), la connectivité (la 5G offre une connectivité rapide pour les appareils mobiles et l’Internet des objets) et le matériel spécialisé.

En somme, ces composantes matérielles travaillent ensemble pour traiter et analyser de grandes quantités de données, permettant aux systèmes d’IA d’apprendre, de s’adapter et de faire des prédictions. L’IA ne serait pas possible sans cette puissance matérielle sous-jacente.

L’exemple de Nvidia[9]

Parmi les fabricants de composantes matérielles destinées à l’IA, l’entreprise Nvidia, bien que moins connu du grand public que les géants du Web, compte parmi les principaux joueurs dans ce domaine. Elle est actuellement la deuxième entreprise en termes de capitalisation boursière de la planète dans le domaine de l’IA, devancée uniquement par Microsoft. Elle présente plusieurs avantages, dont une puissance de calcul exceptionnelle. Les unités de traitement graphique (GPU) de Nvidia sont devenues un pilier fondamental de l’IA, permettant des avancées significatives dans le domaine de l’apprentissage automatique et des réseaux de neurones.

L’argent, bien matériel de l’intelligence artificielle

Avec les algorithmes, les mégadonnées et le matériel informatique, l’argent constitue la quatrième composante de l’intelligence artificielle, essentielle à son développement et à son déploiement, capitalisme oblige.

Coûts financiers de l’IA

L’intelligence artificielle est un domaine qui engendre des coûts astronomiques[10] pour les développeurs. Une grande partie des pertes associées aux IA génératrices provient des coûts d’inférence. Pour maintenir des IA capables de fournir des réponses optimales en un temps très court, une puissance informatique considérable est requise dès les phases de test. Cela implique l’utilisation de supercalculateurs actifs en permanence. Des cartes graphiques hautement performantes, coûtant environ 30 000 dollars chacune,, sont essentielles pour ces calculs.

Les coûts augmentent aussi avec la popularité de l’outil IA. Plus une IA est connue, plus elle reçoit de requêtes, ce qui entraine des prix plus élevés pour la génération de réponses. La longueur de la requête impacte également les coûts. Des requêtes plus longues reviennent plus cher aux entreprises derrière ces IA génératrices.

Le modèle économique de l’IA est limité : Par exemple,  ChatGPT, dont l’application est gratuite pour les utilisateurs et utilisatrices, a engendré des pertes estimées à  540 millions de dollars  l’an passé. Pour compenser ces pertes,  OpenAI  propose des abonnements à  20 dollars par mois  pour accéder à des versions plus performantes de ChatGPT. Chaque requête (prompt) d’IA générative coûterait entre 0,01 $ et 0,36 $, selon les estimations. À titre d’exemple, un service qui coûte 10 $ par utilisateur et par mois, entrainerait une perte de 20­ $ par mois; certains utilisateurs coûteraient au fournisseur plus de 80 $[11].

Coûts environnementaux de l’IA

L’intelligence artificielle a un impact considérable en termes de consommation d’énergie et en ressources naturelles.

L’entrainement des modèles d’IA, notamment les réseaux neuronaux, nécessite une grande quantité de calculs effectués dans des centres de données qui consomment énormément d’électricité[12]. Par rapport à l’apprentissage chez les humains, les tâches d’entrainement sont inefficaces car les modèles d’IA doivent lire une grande quantité de données pour apprendre à les comprendre. Par exemple, le modèle linguistique BERT (Bidirectional Encoder Representations from Transformers) a utilisé 3,3 milliards de mots tirés de livres anglais et de pages Wikipédia pour comprendre la langue.

L’empreinte carbone de l’élaboration de l’IA constitue un risque majeur. Selon certaines estimations, l’entrainement d’un modèle d’IA génère autant d’émissions de carbone que cinq voitures pendant toute leur durée de vie, fabrication comprise. Les chercheurs et développeurs en IA doivent être conscients de ces coûts énergétiques croissants et chercher des moyens d’optimiser l’efficacité énergétique de leurs modèles. L’utilisation de l’IA générative peut également contribuer à la sobriété écologique en surveillant les schémas de consommation d’énergie des bâtiments et en identifiant des opportunités d’économies.

Vers un monopole des géants du Web

Les IA généralistes sont en difficulté en raison des coûts élevés. Actuellement, les IA généralistes, comme ChatGPT, sont capables de réaliser de nombreuses tâches. Une possibilité serait de développer des IA spécialisées pour des tâches spécifiques, fonctionnant localement, afin de réduire les coûts liés à l’utilisation du « cloud ».

À long terme, seules les grandes entreprises américaines telles que Google, Microsoft, Meta, Apple et Amazon pourraient gérer des IA généralistes car elles ont la capacité d’absorber les pertes financières associées à leur utilisation. Cependant, même ces géants ne pourraient pas se tourner vers une utilisation à 100 % d’IA. La recherche via l’intelligence artificielle coûte six fois plus cher qu’une recherche Google standard.

Les GAFAM explorent des solutions pour réduire ces coûts. Par exemple, des puces dédiées à l’intelligence artificielle sont en projet, ce qui pourrait réduire les dépenses tout en maintenant une certaine qualité de service. De même, des centres de calcul et de données alimentées en énergie renouvelable sont en construction, pas tant pour l’environnement que pour réduire les coûts.

Investissements en IA par pays et par entreprise

Le graphique ci-joint, basé sur les données du rapport 2023 AI Index Report[13] de l’Université de Stanford, montre les pays où les sommes les plus importantes ont été investies dans des entreprises d’IA entre 2013 et 2022. Les États-Unis arrivent largement en tête avec un montant de 248,9 milliards de dollars, suivis par la Chine (95,1 milliards de dollars) et le Royaume-Uni (18,2 milliards de dollars). À remarquer, le Canada au cinquième rang avec des investissements de 8,8 milliards de dollars sur cette période, bien que n’ayant aucune entreprise dans le top 20 des entreprises du domaine de l’IA. C’est que les investissements au Canada sont souvent le fait d’entreprises multinationales étrangères en partenariat avec des laboratoires et centres de recherche universitaires ou sans but lucratif, mais largement financés par des fonds publics.

En 2022, les investissements les plus importants dans l’IA ont été réalisés dans le domaine de la médecine et de la santé (6,1 milliards de dollars), selon le rapport.

word-image-35293-2-2.jpeg?resize=696%2C696&ssl=1

Parmi les 20 plus grandes entreprises mondiales dans le domaine de l’intelligence artificielle, classées par capitalisation boursière[14] , on compte 19 entreprises américaines ou chinoises et une seule d’un autre pays, Israël. Ces entreprises représentent un mélange de matériel, de logiciels et de services basés sur l’IA.

Capitalisation boursière (en milliards de dollars US)[15]
Rang Entreprise Pays $ (US)
1 Microsoft États-Unis 3 040,00 $
2 NVIDIA États-Unis 1 980,00 $
3 Alphabet (Google) États-Unis 1 712,00 $
4 Meta (Facebook) États-Unis 1 246,00 $
5 Tesla États-Unis 639,00 $
6 Alibaba Group Chine 181,00 $
7 IBM États-Unis 169,00 $
8 Palantir États-Unis 54,00 $
9 Baidu Chine 40,00 $
10 Tencent Chine 39,00 $
11 Meituan Chine 37,00 $
12 JD.com Chine 34,00 $
13 Pinduoduo Chine 30,00 $
14 Xiaomi Chine 25,00 $
15 NetEase Chine 24,00 $
16 Hikvision Chine 23,00 $
17 Mobileye Israël 20,00 $
18 Dynatrace États-Unis 14,00 $
19 UiPath États-Unis 13,00 $
20 Sogou Chine 4,00 $

À remarquer : Apple ne fait pas partie du tableau bien que plusieurs experts estiment qu’Apple investit présentement d’énormes ressources en IA. Il y aurait deux explications à ce constat. L’entreprise n’est pas considérée comme un fournisseur de services d’IA par les statisticiens et Apple a une réputation d’opacité légendaire quant à ses projets de développement.

Prévisions du chiffre d’affaires du marché de l’IA dans le monde de 2021 à 2030 en millions de dollars US

word-image-35293-3-2.png?resize=696%2C398&ssl=1

Source: Statista Research Department, 13 février 2024.

L’encadrement de l’IA ?

Aucune loi, mesure ou réglementation n’encadre présentement le développement, le déploiement et l’utilisation de l’IA, et cela, à aucun niveau gouvernemental d’aucun pays et pas plus aux différents niveaux supranationaux. Tout est laissé aux bons soins des secteurs privé ou public de s’autoréguler. C’est réellement le Far West numérique. Quelques initiatives du secteur privé ou d’organisations de la société civile ont commencé à intenter des poursuites, à formuler des revendications et même à entreprendre des luttes pour limiter les effets néfastes des applications de l’IA dans certains domaines particuliers.

Divers projets de loi sont néanmoins à l’étude présentement un peu partout sur la planète, souvent le résultat de pressions de collectifs de chercheurs et d’experts dans divers domaines dont celui de l’IA ou d’organisations de la société civile. Tous ces projets ont en commun la même belle intention : favoriser le déploiement d’une IA responsable, verte, équitable, non discriminatoire et tutti quanti. Ils ont aussi en commun de faire des exceptions notables pour tout ce qui touche au secteur militaire, aux forces de l’ordre et aux services de renseignement.

Nous examinerons ici deux projets de loi, parmi les plus avancés en ce moment, soit ceux de l’Union européenne et de la Chine. Ils posent un minimum d’encadrement juridique au développement de l’IA, à son déploiement et à son utilisation. Au Canada et aux États-Unis, les projets de loi annoncés sont encore à l’état larvaire. Par exemple, le projet de loi de la Maison-Blanche a reçu l’appui des dirigeants des GAFAM (sauf Elon Musk). Cela dit tout sur la portée protectrice qu’aura cette loi sur les abus des géants de ce monde.

L’Union européenne

L’Union européenne (UE) a envisagé plusieurs projets de loi et règles pour encadrer l’intelligence artificielle. Ces projets visent à équilibrer la nécessité de prévenir les dangers liés à cette technologie et la volonté de ne pas prendre de retard.

Le 9 décembre 2023, le Parlement européen est parvenu à un accord provisoire avec le Conseil européen sur la loi sur l’IA. Le texte convenu devra être formellement adopté par le Parlement européen et son Conseil pour entrer en vigueur[16].

Voici un résumé des points clés[17] :

Le projet de loi sur l’IA de l’UE établit des obligations pour les fournisseurs et pour les utilisateurs en fonction du niveau de risque lié à l’IA. Les dispositions définissent quatre niveaux de risque :

  1. Risque inacceptable : les systèmes d’IA à risque inacceptable sont considérés comme une menace pour les personnes et seront interdits (par exemple, des technologies qui prétendent « prédire » des infractions »). Ces systèmes comprennent :
  1. Risque élevé : ces systèmes d’IA doivent se conformer à des exigences strictes. Par exemple, les systèmes d’identification biométrique et de catégorisation des personnes ou les systèmes utilisés pour la gestion et l’exploitation d’infrastructures critiques. Le projet de loi définit aussi des obligations spécifiques pour les utilisateurs d’IA et pour les fournisseurs.
  2. Risque limité : ces systèmes d’IA doivent être évalués. Par exemple, les systèmes utilisés dans les jeux vidéo ou les filtres anti-pourriel.
  3. Risque minimal : la plupart des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie et ne nécessitent pas d’encadrement spécifique. Par exemple, les systèmes de recommandation.

Ces règles visent à garantir que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.

La Chine

La Chine a récemment mis en place une nouvelle réglementation concernant les contenus générés par l’intelligence artificielle. Cette réglementation vise à maintenir la compétitivité du pays dans le domaine de l’IA tout en exerçant un contrôle strict. Voici les principales règles de cette réglementation[18].

Éthique

  • Les systèmes d’IA générative doivent adhérer aux valeurs fondamentales du socialisme.
  • Ils ne doivent pas menacer la sécurité nationale ni promouvoir le terrorisme, la violence ou la haine raciale.
  • Les fournisseurs de services doivent présenter les contenus générés par l’IA comme tels et prévenir toute discrimination basée sur le sexe, l’âge et le groupe ethnique lors de la conception des algorithmes.
  • Les logiciels d’IA ne doivent pas créer de contenu contenant des informations fausses et nuisibles.
  • Les données utilisées pour l’entrainement des logiciels d’IA doivent être obtenues légalement et ne pas porter atteinte aux droits de propriété intellectuelle d’autrui.

Sécurité

En somme, la Chine cherche à équilibrer l’innovation en IA avec des mesures de contrôle pour encourager le développement tout en évitant les abus.

Angela Zhang, professeure de droit à l’Université de Hong Kong, a indiqué à l’Agence France-Presse que « la législation chinoise est à mi-chemin entre celle de l’Union européenne (UE) et celle des États-Unis, l’UE ayant l’approche la plus stricte et les États-Unis la plus souple[19] ».

GLOSSAIRE

Agent conversationnel

Logiciel capable de communiquer de façon bidirectionnelle avec un utilisateur en langage naturel, par messagerie instantanée ou au moyen d’une interface vocale. Ces « agencements technologiques sont capables de produire des paroles ou bien des écrits pendant des interactions avec des humains et de simuler des compétences humaines, des rôles sociaux ou encore des formes de relations sociales artificielles aux utilisateurs ».

Algorithme d’apprentissage automatique

L’apprentissage machine « permet de construire un modèle mathématique à partir de données, en incluant un grand nombre de variables qui ne sont pas connues à l’avance. Les paramètres sont configurés au fur et à mesure lors d’une phase d’apprentissage, qui utilise des jeux de données d’entraînement pour trouver des liens et les classifie ». Cela peut être utilisé pour « développer des calculs dans le but de concevoir, de former et de déployer des modèles d’algorithmes, principalement dans une optique de classification et/ou de prédiction de l’usage et du comportement des utilisateurs ».

Analytique augmentée

« Processus de collecte, d’organisation et d’analyse de grands ensembles de données pour découvrir des renseignements utiles et prévoir les événements pertinents ».

Boîte noire

Dans le contexte de l’IA, les boîtes noires font référence au fait que le fonctionnement interne de nombreux systèmes d’IA est invisible pour l’utilisateur, qui ne peut pas examiner la conception ou le codage du système pour comprendre comment certaines décisions ont été prises.

Bot informatique (bot)

« Logiciel automatisé qui imite le comportement humain sur les médias sociaux en publiant des informations, en affichant son approbation (like) et en s’adressant à des personnes réelles ».

Chatbot, robot conversationnel

Agents conversationnels « conçus pour interagir avec les humains en langage naturel, robot conversationnel vocal ou écrit… qui sont capables de dialoguer avec un utilisateur par téléphone via l’appui sur des touches ou la reconnaissance vocale ».

Hypertrucage

L’IA et l’apprentissage automatique permettent de créer des contenus vidéo qui imitent des personnes spécifiques. Ces techniques comprennent « le changement de visage, la reconfiguration faciale visant à modifier l’expression faciale d’un personnage ou personnalité dans une vidéo en lui faisant virtuellement répliquer la mimique réalisée en studio par un acteur ou une tierce personne, la reconfiguration labiale consistant à modifier la bouche d’une personne pour faire croire qu’elle a dit quelque chose (qu’elle n’a jamais dite), l’apprentissage de la voix pour faire dire virtuellement à une personne n’importe quel message ».

Intelligence artificielle (OQLF)

Domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci.

L’intelligence artificielle touche à de nombreux domaines, comme les sciences cognitives et les mathématiques, et à diverses applications, notamment en reconnaissance des formes, en résolution de problèmes, en robotique, dans les jeux vidéo ainsi que dans les systèmes experts.

Intelligence artificielle faible (OQLF)

Système d’intelligence artificielle conçu pour imiter une portion spécifique du fonctionnement de l’intelligence humaine, lui permettant de reproduire certains comportements humains afin d’accomplir une ou des tâches particulières.

L’intelligence artificielle faible se distingue de l’intelligence artificielle forte, cette dernière imitant l’ensemble du fonctionnement de l’intelligence humaine.

Intelligence artificielle forte (OQLF)

Système d’intelligence artificielle conçu pour imiter le fonctionnement de l’intelligence humaine dans son ensemble, et ayant la capacité de se questionner, d’analyser et de comprendre ses raisonnements.

L’intelligence artificielle forte se distingue de l’intelligence artificielle faible, cette dernière n’imitant qu’une portion spécifique du fonctionnement de l’intelligence humaine.

Intelligence artificielle générale (IAG)

Technologies d’IA « capables de traiter de l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ».

Intelligence artificielle générative

« Méthode qui permet à un système informatique d’apprendre à partir de données existantes et de générer de nouvelles données qui peuvent être utilisées pour des applications variées telles que la création d’images, de musique, de vidéos et de contenu textuel ».

Mégadonnées (big data en anglais) (OQLF)

Ensemble d’une très grande quantité de données, structurées ou non, se présentant sous différents formats et en provenance de sources multiples, qui sont collectées, stockées, traitées et analysées dans de courts délais, et qui sont impossibles à gérer avec des outils classiques de gestion de bases de données ou de gestion de l’information.

Lorsqu’il est question de mégadonnées, il y a souvent une référence au principe des « trois V » : volume (généralement massif), variété (sources et formats divers) et vitesse (rapidité de traitement). Certains spécialistes ajoutent également la véracité (données crédibles et réelles). Les mégadonnées proviennent notamment des publications dans les médias sociaux, des données publiques mises en ligne, des données transmises par les téléphones intelligents, des relevés de transactions électroniques, des signaux des systèmes de localisation GPS, etc. Elles peuvent être de nature autant personnelle que professionnelle ou institutionnelle.

Neurone artificiel (OQLF)

Unité de base d’un réseau de neurones artificiels dont le rôle est de convertir les signaux porteurs d’information qu’elle reçoit en un signal unique qu’elle transmet à d’autres unités du réseau ou qu’elle dirige vers la sortie.

À l’origine, les inventeurs du neurone artificiel se sont inspirés du neurone biologique en tentant de lui donner un modèle mathématique.

Réseau de neurones artificiels (OQLF)

Ensemble organisé de neurones artificiels interconnectés, créé dans le but de pouvoir effectuer des opérations complexes ou de résoudre des problèmes difficiles grâce à un mécanisme d’apprentissage lui permettant d’acquérir une forme d’intelligence.

À l’origine, les créateurs de réseaux de neurones artificiels se sont inspirés du fonctionnement du système nerveux, lequel est organisé en fonction des liaisons qui s’établissent entre des neurones biologiques.

Réseau de neurones profond (OQLF)

Réseau de neurones artificiels comportant de nombreuses couches cachées qui lui permettent, en multipliant les possibilités de traitement, d’augmenter ses capacités d’apprendre, d’améliorer son efficacité à effectuer certaines opérations complexes et d’accroître ses moyens de résoudre certains problèmes difficiles.

Robot (OQLF)

Machine programmable, généralement contrôlée par ordinateur, qui est conçue pour effectuer de manière autonome une ou plusieurs tâches dans des environnements spécifiques.

Les robots sont généralement des automates évolués qui possèdent l’équipement nécessaire pour s’adapter à leur environnement et interagir avec les objets qui les entourent. Ils effectuent souvent des tâches variées qui exigent des facultés propres à l’être humain à la fois sur les plans moteur et cérébral. Les progrès de l’intelligence artificielle vont accroître l’autonomie des robots en leur permettant de disposer de mécanismes perfectionnés d’apprentissage et de prise de décisions.

Système d’intelligence artificielle (OQLF)

Système conçu pour simuler le fonctionnement de l’intelligence humaine afin d’exécuter des fonctions relevant normalement de celle-ci.

Test de Turing (OQLF)

Test qui consiste à mettre en communication, à l’aveugle, un être humain et un ordinateur afin de vérifier s’ils sont capables d’atteindre les mêmes niveaux de performance. Si l’opérateur humain ne parvient pas à distinguer lequel de ses interlocuteurs est l’ordinateur, on considère que la machine a passé le test de Turing et est ainsi dotée d’intelligence artificielle. Le test de Turing a été imaginé par le mathématicien britannique Alan Turing.

Traitement automatique du langage humain (TALN). Traitement du langage naturel (TAL)

« Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain ». Les fonctions et applications relevant du TAL incluent la traduction automatique, les agents conversationnels, et le traitement de la parole.

Traitement automatique des langues (OQLF)

Technique d’apprentissage automatique qui permet à l’ordinateur de comprendre le langage humain. Les applications du traitement automatique des langues incluent, entre autres, la traduction automatique, la synthèse de la parole, la reconnaissance de la parole, la reconnaissance de l’écriture manuscrite et l’assistant virtuel.

Références

Par André Vincent, Professeur en infographie retraité du Collège Ahuntsic, édimestre des Nouveaux Cahiers du socialisme


NOTES

  1. Chaire UNESCO pour la culture de la paix, Qu’est ce que l’intelligence artificielle ?.
  2. Dictionnaire Larousse Encyclopédie, Intelligence artificielle.
  3. Une partie de ce texte est tirée directement ou adaptée de l’article intitulé Intelligence artificielle de l’encyclopédie libre Wkipédia.
  4. Pour en savoir plus sur l’évolution de l’IA, on peut consulter les sources suivantes :
  5. Wikipédia, Intelligence artificielle.
  6. Actualité informatique, Quels sont les 3 types d’IA ?.
  7. Bouliech, CC BY-SA 4.0, via Wikimedia Commons.
  8. Wikipédia, Intelligence artificielle. Domaines d’application.
  9. Agence France Presse, « Au cœur de la course à l’IA, les puces de Nvidia suscitent la convoitise des start-up », La Croix, 29 septembre 2023.
  10. Thibault Mairesse, « L’intelligence artificielle : un gouffre financier », Études Tech, 18 octobre 2023.
  11. Tom Dotan et Deepa Seetharaman, « Big tech struggles to turn AI hype into profits », Wall Street Journal, 9 octobre 2023.
  12. Kate Saenko, « La recherche en IA est très énergivore, voici pourquoi », The conversation, 25 janvier 2021.
  13. Jack Clark et Ray Perrault, Artificial Intelligence Index Report 2023, Stanford University.
  14. Largest AI companies by market capitalization.
  15. Données regroupées de diverses sources consultées le 29 février 2024, dont : Largest AI companies by market capitalization ; Largest Chinese companies by market capitalization – CompaniesMarketCap.com; Top 10 Chinese AI Companies, AI Magazine.
  16. Parlement européen, Loi sur l’IA de l’UE : première règlementation de l’intelligence artificielle, 9 juin 2023, mise à jour le 19 décembre 2023.
  17. Ibid.
  18. Agence France-Presse, « L’intelligence artificielle encadrée par une nouvelle réglementation en Chine », Journal de Montréal, 18 août 2023.
  19. LEXPRESS.fr avec AFP, « Contenus générés par l’IA : cette nouvelle réglementation instaurée en Chine », L’Express, 19 août 2023.
PHOTO : André Querry -Manifestation pour GAZA - 23 mars 2024

S’il est minuit dans le siècle

30 mars, par Rédaction
<

PHOTO : André Querry -Manifestation pour GAZA - 23 mars 2024

ÉDITORIAL[1]  — Malgré les nombreuses protestations à travers le monde et dans leur propre pays, émanant de divers groupes, y compris d’organisations rassemblant des Juifs[3], plusieurs gouvernements occidentaux continuent de soutenir le gouvernement israélien. Pourtant, ils ont, et les États-Unis en particulier, les moyens de faire pression afin de faire cesser immédiatement le génocide en cours du peuple palestinien. Ce génocide accompagne les volontés de recolonisation de la bande de Gaza par l’extrême droite israélienne[4] qui a pris le prétexte des représailles des crimes inhumains commis par le Hamas le 7 octobre dernier pour la mettre en œuvre à grande échelle.

Ce constat sur l’attitude de puissances occidentales en dit long sur l’époque que nous vivons, alors que les classes dirigeantes gagnées par le néolibéralisme ont perdu le sens de l’intérêt collectif et qu’elles préfèrent continuer leurs calculs stratégiques en défense de leurs intérêts à court terme. Car qui peut ignorer que la haine et la violence alimentent le désespoir et la haine et la violence ? D’une certaine façon, Israël en est l’illustration, avec sa population prise en tenaille par un gouvernement sioniste d’extrême droite, qui instrumentalise la Shoah et prétend parler au nom des Juifs de la planète.

Les élites néolibérales, y compris lorsqu’elles flirtent avec l’extrême droite et mettent en œuvre des politiques autoritaristes, n’ignorent pas qu’une part de consentement de certaines couches de la société est nécessaire pour gouverner. Comme disait Talleyrand à Napoléon : « On peut tout faire avec des baïonnettes, sauf s’asseoir dessus[5] ». Les refus de certains pays, dont le Canada et le Québec, de voter une résolution appelant au cessez-le-feu à l’Assemblée des Nations unies est un non-sens criminel. Mais le soutien inconditionnel à Israël est sans doute une façon d’alléger la culpabilité de l’Europe et des États-Unis. Car, dès 1942, Roosevelt, Churchill et d’autres savaient ce qui se passait dans les camps d’extermination, mais n’ont rien fait pour arrêter la Shoah. Depuis, on laisse le sionisme développer son récit de l’histoire sur le thème : « Seul Israël peut assurer la sécurité des Juifs ». Ce qui ressemble à une gigantesque tartufferie quand on regarde la montée de l’antisémitisme un peu partout dans le monde depuis le début des représailles génocidaires[6].

Mais les classes dirigeantes n’ont-elles jamais eu une vision du bien commun quand les populations du Sud global sont en jeu ? Plus de cinq cents ans d’histoire faite de génocides des Autochtones, de traite des Noirs africains et de l’esclavage, de colonialisme, de racisme et d’antisémitisme nous ont démontré le contraire.

Aujourd’hui, lorsque l’on compare les réponses occidentales à l’invasion de l’Ukraine par la Russie et celles suivant la destruction en cours de Gaza et de ses habitants par Israël, on constate qu’il n’y a aucun support gouvernemental digne de ce nom des Palestiniens et Palestiniennes. Pire, plusieurs pays occidentaux, dont le Canada, les États-Unis, l’Italie et la Grande-Bretagne ont immédiatement coupé le financement de l’UNRWA[7], un organisme des Nations unies, sur les seules allégations d’Israël au sujet d’une participation d’employés de cet organisme aux attaques du Hamas le 7 octobre. Pourtant, dans d’autres situations où des employés d’organismes de l’ONU ou des Casques bleus étaient accusés de viols et d’autres atrocités lors d’interventions, les sanctions n’ont pas été dirigées contre les organismes[8], car on arguait, avec raison, qu’il ne fallait pas confondre leur raison d’être avec le personnel employé ou mobilisé. En outre, ces allégations sont intervenues juste après qu’ait été confirmé, le 26 janvier dernier, le risque de génocide des Palestiniens par la Cour internationale de justice, qui avait été saisie par des avocats de l’Afrique du Sud, ce pays où la population noire a mis fin à l’apartheid. Or, l’arrêt du financement de l’UNRWA va transformer le risque de génocide des Palestiniens en réalité.

L’UNRWA joue en effet un rôle essentiel dans la survie du peuple gazaoui qui, en plus des bombardements, subit la soif, la famine et les épidémies en raison du blocus en eau, nourriture, électricité et essence imposé par Israël. Car Israël contrôle tout dans la bande de Gaza. C’est son gouvernement et son administration, ses services secrets, son armée qui décident de tout ce qui se passe à Gaza, et même de qui peut travailler pour l’UNRWA ou bénéficier d’une autorisation pour rejoindre sa famille en France ou au Canada !

Pour les gouvernements occidentaux qui ont choisi de refuser de réclamer un cessez-le-feu immédiat, toutes les vies n’ont pas la même valeur. C’est ce qu’on retiendra au-delà des calculs stratégiques de Biden et de ses conseillers qui ne veulent pas donner l’impression qu’ils ne soutiennent plus Israël – ce qui risque par ailleurs de saper les chances que le Parti démocrate l’emporte sur Trump. Les États-Unis ont, il est vrai, durci leur discours, puis annoncé des sanctions contre les colons israéliens qui, profitant du chaos régnant, sévissent brutalement et souvent mortellement en Cisjordanie. Mais selon cette stratégie des petits pas diplomatiques, qui demande du temps, les Palestiniens font figure de « dommages collatéraux ». Cela est inadmissible, même si Biden et son administration prennent soin de ne pas confondre la population israélienne avec son gouvernement, et préfèrent attendre que Netanyahou soit obligé de partir pour mettre en œuvre un cessez-le-feu et la solution à deux États prévue par l’ONU depuis 1947 et prémisse des accords d’Oslo en 1993. Si tant est que cette solution soit encore viable, alors que c’est Netanyahou lui-même et sa clique d’extrême droite qui ont aidé le développement du Hamas – dont on ne peut ignorer les méthodes de gestion par la terreur sur la bande de Gaza[9] – parce qu’ils misaient sur le fait que le Hamas, qui était comme eux opposé à ces accords, les fasse échouer. Ces accords représentaient pourtant d’importants reculs par rapport aux aspirations des Palestiniens à reconquérir leur territoire de 1967[10]. Ils résultaient notamment du soutien inconditionnel des États-Unis et d’autres puissances occidentales pour Israël, mais aussi du manque de vision politique de Yasser Arafat, dirigeant de l’Organisation de libération de la Palestine, majoritaire à l’époque parmi les Palestiniens, et de l’absence d’un réel appui des gouvernements des pays arabes. Malgré de grandes déclarations, ces derniers ont plus souvent laissé les Palestiniens à leur sort, quand ils ne les ont pas réprimés, préférant normaliser leurs relations avec Israël et l’Occident.

Combien de temps encore avant que les Israéliennes et les Israéliens ne mettent Netanyahou à la porte ? Car la majorité enrage contre leur premier ministre depuis leur mobilisation massive contre un projet de réforme judiciaire antidémocratique, bien avant le 7 octobre. Mais critiquer les politiques n’était plus dans les priorités depuis le 7 octobre, hormis pour celles et ceux qui risquent leur propre vie pour documenter et défendre les Palestiniennes et les Palestiniens de Cisjordanie contre les crimes qui se multiplient de la part des colons israéliens. En partie sous l’emprise d’un Netanyahou qui gouverne « par la peur[11] », la population est surtout focalisée sur les otages encore détenus par le Hamas et ses satellites, et sur les crimes commis le 7 octobre dernier, que certains vont jusqu’à qualifier de nouvelle Shoah, pratiquant aussi du coup une « autre forme de révisionnisme », comme le remarque Laurel Leff dans Haaretz[12], le seul journal israélien qui maintient une volonté critique d’information. Mais dans leur majorité, les Israéliens semblent indifférents au sort des Palestiniens. Quelques centaines ont toutefois manifesté le 18 janvier dernier à Tel-Aviv, pour réclamer un cessez-le-feu, expliquant notamment que « la guerre est mauvaise pour les Israéliens et pour les Palestiniens », mais « bonne pour le Hamas et pour Bibi[13] ». On est loin cependant des dizaines de milliers de manifestantes et manifestants qui défilaient au cours d’époques précédentes pour la paix avec les Palestiniens[14]. Selon un manifestant, le 18 janvier, la plupart des Israéliens « soit ne veulent pas comprendre ce qui se passe à Gaza, soit préfèrent détourner les yeux[15] ». Cela changera-t-il avec la reprise, début février, de manifestations contre le gouvernement Netanyahou, dont les prises de position reposent sur les mêmes soubassements racistes, xénophobes et colonialistes que les discours ou des lois anti-immigrants portés par une partie de l’extrême droite européenne ?

Dans un message (post) qui circulait sur Facebook en ce début d’année, il était écrit : « Ce qui est mort à Gaza, c’est l’idée que l’Occident incarnait l’humanité et la démocratie[16] ». Historiquement parlant, cette idée est morte avant, en 1942, et encore avant, pendant les siècles de domination coloniale qui ont précédé. La différence aujourd’hui, c’est que le génocide se déroule en direct, documenté par des journalistes palestiniens qui perdent la vie[17], les uns après les autres, dans ce combat destiné à informer et à restituer un nom, une voix et une histoire à ces dizaines de milliers d’êtres humains, femmes et enfants en premier lieu, qui sont morts ou mutilés.

La différence tient aussi dans le fait que les populations, qu’elles soient au Sud ou au Nord, sont plus sensibles aux enjeux. Les aspirations à l’égalité et à la démocratie se sont élargies pour intégrer une vision intersectionnelle des dominations et une conscience des rapports de pouvoir Nord-Sud – en témoigne l’ampleur des manifestations pour le cessez-le-feu, notamment dans ces pays occidentaux conduits par un néolibéralisme ravageur pour les pauvres, les minorités ou groupes minorés et les femmes. Dès lors, on peut croire en la capacité des êtres humains à se saisir de cette relativisation de l’héritage occidental pour poursuivre et mettre en pratique d’autres visions du monde.

En attendant, nous sommes dans ce moment dont parlait Gramsci lorsque l’Italie était dirigée par Mussolini et que le fascisme faisait des émules : « Le vieux monde se meurt, le nouveau monde tarde à apparaitre et dans ce clair-obscur surgissent les monstres ». Cela, avec des conséquences désastreuses en termes de vies humaines.

Par Carole Yerochewski, pour le comité de rédaction[2]


NOTES

  1. Ce titre est celui d’un livre écrit en 1939 par Victor Serge, anarchiste gagné au trotskysme pendant la Révolution russe, qui a été emprisonné par Staline et qui dénonce cette machine à broyer les êtres humains, en redonnant un visage et un nom à ces opposantes et opposants qui mourraient dans l’anonymat, comme meurent aujourd’hui tant de Palestiniennes et de Palestiniens broyés par les bombes de l’armée israélienne.
  2. Carole Yerochewski et le comité de rédaction remercient Rabih Jamil pour sa participation à la réflexion qui a conduit à l’écriture de cet éditorial.
  3. Comme Voix juives indépendantes Canada, et d’organisations ou représentants et représentantes de Juifs sionistes, selon les pays, notamment aux États-Unis.
  4. Rania Massoud, « En Israël, l’extrême droite rêve tout haut à la recolonisation de Gaza », Radio-Canada, 22 décembre 2023.
  5. « Sauf s’asseoir dessus » exprimait le fait qu’on ne peut se reposer sur la force, c’est-à-dire gouverner sans craindre ou risquer des protestations et des contre-réactions à cette violence.
  6. L’antisémitisme et le racisme anti-arabe ont décuplé ces derniers mois un peu partout. Voir à ce sujet :Tamara Alteresco, « Montée de l’antisémitisme en France », reportage de Radio-Canada, 6 novembre 2023 ; Oona Barrett, « Comprendre la montée de l’antisémitisme », Pivot, 17 novembre 2023 ; « Deux expertes de l’ONU dénoncent la montée de l’antisémitisme et de l’islamophobie dans le monde », ONU info, 22 décembre 2023.
  7. UNRWA : United Nations Relief and Works Agency for Palestine Refugees in the Near East; en français, l’Office de secours et de travaux des Nations unies pour les réfugiés de Palestine dans le Proche-Orient.
  8. Human Rights Watch, « République centrafricaine : Des viols commis par des Casques bleus », 4 février 2016, <https://www.hrw.org/fr/news/2016/02/04/republique-centrafricaine-des-viols-commis-par-des-casques-bleus>.
  9. Voir un état des lieux par Amnistie internationale ; Voir aussi : AFP et Le Figaro, « Gaza : un émissaire de l’ONU condamne la répression par le Hamas de manifestations », 17 mars 2019.
  10. Voir l’analyse d’Edward Saïd, « Au lendemain d’Oslo », 1993, dans lequel il rappelle les conditions pour mettre en œuvre une autodétermination palestinienne, un objectif oublié dans les discours actuels : <https://blogs.mediapart.fr/t-allal/blog/260124/pour-memoire-au-lendemain-doslo-dedward-said>.
  11. Netanyahou a été désigné comme « le plus grand marchand de peur de l’histoire d’Israël » par le journal Haaretz, qui sous-titre « Comment les tactiques de peur de Netanyahou manipulent les Israéliens », 27 janvier 2024.
  12. Laurel Leff, « Comment la Nakba a éclipsé l’Holocauste dans les médias américains depuis le 7 octobre », Haaretz, 10 décembre 2023.
  13. Surnom du premier ministre Benjamin Netanyahou.
  14. Voir La Paix maintenant, un mouvement extra-parlementaire israélien : <https://fr.wikipedia.org/wiki/La_Paix_maintenant>.
  15. Voir Aya Batrawy, « Israeli protesters demand Gaza cease-fire in rare anti-war march through Tel-Aviv », Wamu 88.5, 19 janvier 2024, < https://wamu.org/story/24/01/19/israeli-protesters-demand-gaza-cease-fire-in-rare-anti-war-march-through-tel-aviv/>.
  16. Notre traduction.
  17. Plus de 80 journalistes sont morts depuis le début des représailles. Voir Yunnes Abzouz et Rachida El Azzouzi, « Journalistes tués en Palestine : comment et pourquoi Mediapart a enquêté », 11 février 2024, <https://www.mediapart.fr/journal/international/110224/journalistes-tues-en-palestine-comment-et-pourquoi-mediapart-enquete>. Une veillée en leur honneur a été organisée le 11 janvier dernier à Montréal par Palestinian Youth Movement avec la participation de plusieurs organisations dont Voix juives indépendantes.

 

Cerveau artificiel et argent

L’intelligence artificielle – Mythes, dangers, désappropriation et résistances

22 mars, par Rédaction

Cerveau artificiel et argent

INTRODUCTION AU DOSSIER – Ce n’est pas d’hier que le capitalisme mondialisé développe et s’approprie les techniques et les technologies les plus avancées et productives pour générer plus de capital privé par l’exploitation du travail et par la consommation étendue à l’échelle de l’humanité. Le capitalisme a aussi mis en place des mécanismes de discrimination qui surexploitent les plus dominé·e·s afin de maximiser les profits.

L’intelligence artificielle (IA) fait partie de ce monde capitaliste. Elle est présente dans nos vies depuis quelques décennies sous différentes formes, on n’a ici qu’à penser à la reconnaissance vocale en téléphonie déployée en 1995 par Bell Canada, pionnier mondial dans ce domaine, en éliminant au passage quelques milliers d’emplois occupés principalement par des femmes. Dans cette joyeuse marre aux algorithmes, les enjeux sont de l’ordre de centaines de milliards de dollars.

Jusqu’ici le développement et le déploiement de l’IA se faisaient plutôt discrets dans des centres de recherche enfouis dans les universités, en « partenariat » avec quelques géants de l’univers numérique. On nous en laissait parfois entrevoir quelques applications « innovantes », dans le domaine de la médecine, de l’automobile autonome, de la reconnaissance faciale, etc. Mais cela restait sous la bonne garde des géants de ce monde.

Mais voilà qu’à la fin de 2023 retentit un coup de tonnerre médiatique dans ce merveilleux univers numérique. L’IA générative, qui depuis une bonne décennie était réservée aux entreprises qui pouvaient se la payer, devient accessible à monsieur et madame Tout-le-Monde sous la forme du robot conversationnel ChatGPT.

La nouvelle a fait fureur et elle n’a pas tardé à déclencher de par le monde un déluge de commentaires et de jugements à l’emporte-pièce. Voilà que l’on pouvait, par le biais d’une simple application, disposer des services d’un robot conversationnel apparemment prodigieux capable de générer instantanément une dissertation de qualité sur n’importe quel sujet de son choix dans la langue de sa convenance.

Bien que l’IA générative sous forme de robot conversationnel ne soit qu’une sous-branche des applications de l’IA basée sur l’apprentissage profond – l’IA couvre beaucoup plus large – il n’en fallut pas plus cependant pour que sur les médias sociaux et dans les grands médias institutionnels finisse par s’imposer un nouveau discours hégémonique en la matière, un discours passe-partout et tout puissant, globalement favorable à l’intelligence artificielle de dernière génération ainsi qu’à ses multiples déclinaisons possibles. Cela est présenté comme quelque chose d’inéluctable et d’indispensable à notre vie future, mettant en sourdine ou à la marge, ou encore passant sous silence bien des dimensions problématiques de l’intelligence artificielle[1].

En guise d’introduction à ce dossier sur l’IA, nous voulons déchiffrer cet emballement pour l’IA et montrer ce qu’il y a derrière ce discours devenu si prégnant, en mettant en évidence comment il reste difficile dans nos sociétés contemporaines de faire la part des choses en matière de découvertes ou de progrès scientifiques et techniques, au point de jouer à l’autruche devant une multitude de dangers pourtant des plus inquiétants.

Sur l’idée de progrès

Il faut dire que pendant longtemps, modernité oblige, nous avons été portés – y compris à gauche – à doter le progrès économique et technique d’un indice hautement positif.

Après l’imprimerie en 1450, la machine à vapeur en 1770, le moteur à explosion en 1854, l’électricité en 1870, les technologies de l’information et de la communication dans les années 1970 et aujourd’hui l’intelligence artificielle, nous pourrions facilement imaginer être partie prenante d’une vaste trajectoire historique pleine de promesses, nous délivrant pas à pas de lourdes tutelles pesant sur notre humanité. Comme si, en nous laissant emporter par l’inéluctable passage du temps, le futur allait nécessairement nous offrir un avenir meilleur que le présent ou le passé.

On a tous en tête des images fortes – par exemple dans le dernier film de Sébastien Pilote, Maria Chapdelaine – de l’existence que menaient nos ancêtres à la fin du XIXe siècle ou au début du XXe dans ce pays de froid et de neige qu’était le Québec. Ils n’avaient ni eau courante ni électricité ni médecin assuré. Pour survivre et pour faire face aux défis d’une nature hostile, il ne leur restait qu’une vie faite de bûchage acharné et de durs travaux agricoles, d’économies et de privations. Au regard de notre vie d’aujourd’hui, qui souhaiterait revenir à de tels temps ?

Bien sûr, il y avait dans ces images trop simplistes quelques signaux contraires, mais nous avons mis longtemps à en tirer les véritables conséquences. Le progrès, en même temps qu’il délivrait l’être humain de bien des fardeaux, apportait son lot d’inquiétudes et de destruction. À preuve cette ombre de la menace nucléaire qui, à partir de 1945, s’est mise à grignoter, comme un sombre présage, les lumières philosophiques de toutes nos humaines interrogations.

Il y avait aussi ceux et celles qui, à gauche, avaient compris que ce progrès était porté par un mode de production particulier – le mode de production et d’échange capitaliste – qui en sapait une grande partie des potentialités positives. Ils voyaient donc dans un système socialiste, où les richesses privées seraient socialisées, le moyen de redonner au progrès humain ses vertus émancipatrices et libératrices.

Pourtant la plupart d’entre eux, en installant cette socialisation dans un futur indéterminé ou en fermant les yeux sur les difficultés de son actualisation, passée comme présente, et en se croyant portés par le vent de l’histoire, tendaient malgré eux à reprendre à leur compte le mythe d’un progrès inéluctable. D’ailleurs, ils étaient devenus si nombreux, si influents, si assurés de l’avenir – quelle que soit la manière dont ils le pensaient – qu’on avait même fini par tous les regrouper sous un même chapeau : le progressisme. Ils étaient, disait-on, des « progressistes » pariant, plein d’optimisme, sur les valeurs de la modernité, sur les avancées assurées et positives de l’histoire[2].

Le « progressisme », que nous le voulions ou non, nous en sommes, à gauche, les héritiers, et l’idée d’un progrès inéluctable se déployant positivement au fil du temps, continue de nous habiter. Et cela, même si l’histoire parait avoir depuis des décennies infirmé une bonne partie de ces prophéties.

En ne débouchant jusqu’à présent sur aucun changement sociétal de fond, sur aucun saut qualitatif, sur aucun « bond de tigre » comme disait Walter Benjamin, les indéniables avancées scientifiques et techniques qui continuent de fleurir à notre époque s’accompagnent de désordres économiques criants, de guerres nouvelles, de malaises sociaux grandissants, de blocages politiques et de contradictions culturelles. D’autant plus qu’aux maux traditionnels de l’exploitation ou de l’inégalité, fruits connus du capitalisme, sont venus se rajouter ceux, passablement inquiétants et longtemps ignorés, d’un productivisme échevelé : des prédations environnementales généralisées et de brutaux changements climatiques posant cette fois-ci, dans un proche avenir, la question même de notre survie comme humanité.

Voir les choses depuis la perspective de l’histoire

En fait, tout – en particulier ce qui touche aux effets des récentes découvertes scientifiques et techniques sur les sociétés humaines – devrait pouvoir être discuté aujourd’hui, se retrouver sur la grande table des débats collectifs, sans peur et en toute liberté.

Les crises multiples et combinées (crises économiques, sociales, politiques, sanitaires, écologiques, géopolitiques) que collectivement nous affrontons aujourd’hui nous le montrent comme jamais : cette trajectoire ascendante du progrès est en train de se déliter, voire de se transformer peu à peu en son contraire. Elle nous oblige brutalement à nous questionner sur le type de vie auquel nous aspirons comme humains, et sur le devenir de l’humanité. S’épanouira-t-elle sous le signe de la liberté ou de l’émancipation, ou au contraire se distordra-t-elle au gré des impasses d’un « désordre établi » maintenu d’une main de fer par les puissants d’aujourd’hui ? Tout des drames grandissants d’aujourd’hui ne nous oblige-t-il pas à voir les choses de loin, à les scruter depuis la perspective de l’histoire ? Il y a plus de 150 ans de cela, un certain Karl Marx rappelait que :

la seule liberté possible est que l’homme social, les producteurs associés règlent rationnellement leurs échanges avec la nature […] et qu’ils accomplissent ces échanges en dépensant un minimum de force et dans les conditions les plus dignes et les plus conformes à la nature humaine. Mais, rappelait-il […] cette activité constituera toujours le royaume de la nécessité. C’est au-delà que commence le développement des forces humaines comme fin en soi, le véritable royaume de la liberté[3].

Cette vision large et prospective de la liberté, envisagée pour l’humanité universelle comme une libération vis-à-vis du temps de travail obligé, c’est là tout un programme dont on est loin de voir l’aboutissement aujourd’hui. Elle reste néanmoins d’une brûlante actualité quand on songe au surgissement dans nos sociétés de l’intelligence artificielle de dernière génération, si on ose s’arrêter à tout ce qu’elle bouscule sur le plan des conditions structurelles, économiques et techniques, favorisant ou non le déploiement possible d’une liberté humaine. Car on touche là, avec ce nouveau type de technologies, à quelque chose de résolument nouveau dont on peine à mesurer les conséquences sur les multiples dimensions de nos vies, travail et loisirs compris.

Il faut dire que les prouesses, dont cette intelligence artificielle est à l’origine, ont de quoi impressionner. La puissance et la rapidité de ses calculs comme les prodigieux résultats que ses algorithmes atteignent en matière de production quasi instantanée de textes conversationnels, d’images et de sons utilisables par tout un chacun, paraissent lui assurer un avenir à tout coup prometteur. Il faut dire aussi que cette capacité à recourir à des masses gigantesques de données numériques et à les trier à la vitesse de l’éclair recèle de potentiels côtés positifs, notamment en termes d’avancées scientifiques, et plus particulièrement ces derniers temps en termes de diagnostics médicaux. À condition cependant que ces machines apprenantes restent étroitement encadrées par des humains, selon des principes et des exigences éthiques et politiques réfléchies et connues de tous et toutes, de manière à pouvoir de part en part contrôler, dans la transparence, tous leurs tenants et aboutissants, leurs effets problématiques ou inattendus et leurs toujours possibles biais et bévues.

Derrière les prouesses des machines apprenantes, une désappropriation généralisée ?

Tel est le problème décisif : l’indéniable attractivité de l’IA l’a dotée d’une aura si séduisante qu’on tend, dans le grand public, à faire l’impasse sur les formidables dangers dont elle est en même temps le véhicule. Car telle qu’elle se présente aujourd’hui (aux mains des tout puissants monopoles que sont les GAFAM), telle qu’elle se déploie dans nos sociétés contemporaines (au sein d’un marché capitaliste néolibéralisé) et telle qu’elle est en train de faire son chemin dans nos vies (au travers d’une surveillance généralisée et d’une utilisation dérégulée de nos données numériques), l’IA risque bien de participer à un vaste mouvement de « désappropriation[4] » de nos vies. Oui, c’est bien cela : nous désapproprier d’une série d’habiletés collectives, de manières de faire, de façons d’être et de penser, de nous organiser socialement et politiquement, de nous éduquer; toutes choses qui étaient jusqu’à présent le propre de notre humanité commune, avec certes les indéniables limitations qu’elles portaient en elles, mais aussi toutes les libertés en germe qu’elles ne cessaient de nous offrir.

L’IA tend à participer à ce mouvement de désappropriation, en remplaçant ces manières de faire et d’être par des machines et des modèles automatisés et interconnectés, au fonctionnement et aux finalités à priori particulièrement opaques. Les voilà en effet aux mains de grands monopoles privés, eux-mêmes fouettés par le jeu d’une concurrence impitoyable et mus par le jeu cruel et impersonnel de l’accumulation infinie du capital. Le tout, en sachant qu’il s’agit de grands monopoles sur lesquels nous n’avons, dans l’état actuel des choses, pratiquement aucun contrôle démocratique, aucun pouvoir de décision citoyen, aucune prise sociale ou individuelle digne de ce nom.

L’IA risque ainsi d’accentuer, d’élargir et de parachever le mouvement de désappropriation que le mode de production capitaliste faisait déjà peser sur la vie des travailleurs et des travailleuses, en touchant cette fois-ci non pas seulement à l’organisation de leur travail ou à l’extorsion d’une survaleur économique, mais en s’immisçant dans, et en bouleversant de part en part les mécanismes d’information, d’organisation, de « gouvernementalité » de la société entière, tout comme d’ailleurs en se donnant les moyens de contrôler plus étroitement la subjectivité de chacun des individus qui la composent. Le tout, en tendant à pousser les sociétés humaines vers la surveillance généralisée, le contrôle bureaucratique systématisé, la fragmentation définitive des liens sociaux et communautaires; à rebrousse-poil de tous les idéaux démocratiques, d’égalité, de liberté, de fraternité et de diversité que tant d’entre nous continuent à poursuivre par le biais de la lutte sociale et politique.

C’est la raison pour laquelle nous avons décidé de commencer cette présentation par une mise en perspective autour de la notion de progrès, et surtout, nous avons voulu placer ce dossier sur l’intelligence artificielle de dernière génération sous la forme d’une insistante interrogation dont nous chercherons à éclairer les enjeux sous-jacents : dernière les prouesses des machines apprenantes, ne se cache-t-il pas une désappropriation généralisée ?

Avec l’IA, en effet, l’affaire est plus que sérieuse, mais peut-être pas où on l’imaginerait de prime abord. Ici, il ne faut pas craindre de s’en prendre aux mythes qui circulent à son propos et qui, par exemple, verraient une sorte de grand ordinateur, super-intelligent et doté de conscience, prendre le dessus sur des sociétés humaines entières, un peu comme dans le célèbre film de Stanley Kubrick, 2001 : L’odyssée de l’espace, où l’ordinateur de bord HAL 9000 a pris le contrôle d’un vaisseau spatial malgré tous les efforts contraires de son équipage. Le problème n’est pas là, loin de là. Pourtant, si les peurs qu’une telle dystopie peut faire naitre sont actuellement dénuées de fondement, il reste qu’on a quand même bien des motifs d’être inquiets au regard des développements contemporains de l’IA de dernière génération.

Les véritables dangers de l’IA

Si aujourd’hui, ainsi que le rappelle Chomsky[5], l’IA dans sa forme actuelle est loin encore de pouvoir rivaliser sérieusement avec la versatilité et l’inventivité de l’intelligence humaine, ce qui fait néanmoins problème, c’est la manière dont ces nouvelles machines apprenantes – avec les impressionnants pouvoirs de mise en corrélation qu’elles recèlent – s’insèrent et se déploient dans les pores de nos sociétés déterminées par les logiques de l’accumulation capitaliste; elles-mêmes déjà profondément transformées par le déploiement récent des nouvelles technologies de la communication et de l’information (ordinateur, Internet, téléphones intelligents, réseaux sociaux, etc.).

En ce sens, l’IA n’est qu’un pas de plus, une nouvelle étape qu’on serait en train de franchir, l’expression d’un saut qualitatif effectué dans le nouvel ordonnancement d’un monde globalisé, connecté de part en part et mis systématiquement en réseau grâce aux puissances de l’informatique couplées maintenant à celles de l’intelligence artificielle de dernière génération. Avec une nuance de taille cependant : cet ordonnancement tend, par la course aux profits et aux logiques concurrentielles qui l’animent, par l’opacité et le peu de régulation dont elle est l’objet, à court-circuiter les interventions sociales et collectives pensées depuis le bas, ainsi que les démarches démocratiques et citoyennes et toute perspective émancipatrice touchant aux fins poursuivies par l’implantation de ces nouvelles technologies. Tout au moins si nous ne faisons rien pour empêcher son déploiement actuel, si nous ne faisons rien pour tenter d’en encadrer mieux et plus rigoureusement la mise en place, et plus encore pour imaginer les contours d’un autre monde possible et lutter collectivement pour son avènement : un monde dans lequel les nouvelles technologies seraient au service de l’humanité universelle et non son triste contraire.

C’est la raison pour laquelle nous avons voulu penser ce dossier comme une invitation à l’échange et à la discussion, au débat, mais aussi comme un appel à la résistance et à l’action. L’importance et la nouveauté des dangers encourus, tout comme le contexte sociopolitique difficile dans lequel nous nous trouvons, appellent à combiner des forces, à trouver des alliés, à élaborer des fronts amples pour faire connaître l’ampleur des dangers qui sont devant nous, pour faire de l’intelligence artificielle une question politique cruciale auprès d’un large public.

Le côté inédit de ces dangers nous demande en particulier de réfléchir et de travailler sur la nécessité d’une réglementation immédiate et beaucoup plus stricte que celle, balbutiante, que nous connaissons aujourd’hui. Non pas en imaginant qu’on pourra ainsi facilement et définitivement « civiliser » une technologie aux logiques pernicieuses, mais en nous donnant les moyens de gagner déjà de premières batailles sur ce front, aussi minimes soient-elles au départ, pour pouvoir par la suite aller plus loin et s’interroger en profondeur sur le mode de vie qu’on veut imposer de la sorte ainsi que sur la conception du progrès sous-jacente qui en voile toutes les dimensions problématiques.

Car avec l’intelligence artificielle de dernière génération, voilà soudainement les plus intimes des potentialités intellectuelles et artistiques de l’humanité, ses fondements démocratiques, ses outils professionnels d’information, etc., qui risquent d’être profondément chambardées par les dynamiques d’un technocapitalisme dérégulé auquel nous faisons face aujourd’hui.

Un dossier pour débattre et résister

La nouveauté comme la complexité des dangers et les problèmes entrevus obligent à l’humilité et à la prudence, mais il faut s’y arrêter, prendre connaissance de la situation et voir les possibilités de résistance.

Nous allons d’abord tenter avec André Vincent (Intelligence artificielle 101) d’explorer les constituantes technologiques sur lesquelles repose ce qu’on appelle l’IA. On y explique les apports de chacune des quatre constituantes de ce « réseau de neurones apprenant profondément et générant quelque chose » : les machines, les logiciels, les données et l’argent. Et comment tout cela s’imbrique dans diverses applications dans une foule de domaines d’activités. On y examine aussi les diverses formes d’encadrement de l’IA proposées à ce jour ainsi que leur portée. Un glossaire des principaux termes utilisés en IA complète cet article.

Après ce texte d’introduction à l’IA, la partie du dossier, De quelques bouleversements structurels, veut exposer quelques-uns des dangers et des problèmes les plus évidents qui semblent aujourd’hui sauter aux yeux des spécialistes. Et comme en ce domaine, on est loin de l’unanimité, on verra la richesse et la diversité des points de vue, y compris d’importantes oppositions. En particulier quand il s’agit de nommer et de conceptualiser les bouleversements d’ordre systémique qui s’annoncent à travers le développement de l’économie numérique.

Ainsi Maxime Ouellet (Penser politiquement les mutations du capitalisme à l’ère de l’intelligence artificielle) critique ceux qui ont tendance à amplifier le caractère inédit d’une nouvelle forme de capitalisme induite par l’exploitation des données numériques, et qui oublient d’expliquer comment ces transformations s’inscrivent dans la continuité de dynamiques structurelles plus larges du capitalisme de l’après-guerre. Il insiste sur le fait que le développement capitaliste contemporain s’appuie moins sur la forme marchandise prédictive des algorithmes que sur la valorisation financière d’une nouvelle classe d’actifs intangibles (brevets, droits de propriété intellectuelle, fusions et acquisitions, alliances stratégiques, etc.). Il s’oppose ainsi aux thèses de Jonathan Durand Folco et de Jonathan Martineau (Vers une théorie globale du capitalisme algorithmique) qui cherchent au contraire à montrer que l’on assiste à une mutation importante du capitalisme rendue possible par l’utilisation des algorithmes, une mutation du même type que celle apportée par la révolution industrielle du XIXe siècle. Ils veulent mettre en lumière comment l’algorithme est devenu le nouveau principe structurant qui, tout en prenant appui sur lui, réarticule et dépasse le néolibéralisme financiarisé.

C’est aussi cette thèse que tentent de confirmer Giuliana Facciolli et Jonathan Martineau (Au cœur d’une reconfiguration des relations internationales capitalistes), en critiquant l’approche de Cédric Durand[6] sur le « techno-féodalisme ». Sur la base de cette critique, l’autrice et l’auteur veulent démontrer comment les dynamiques du capitalisme algorithmique permettent de mieux comprendre les phénomènes de la périphérisation de certains espaces du capitalisme mondial et de renouveler la compréhension des rapports de dépendance coloniale entre le Nord (États-Unis et désormais Chine) et le Sud global, se traduisant par de nouvelles formes de dépendance de gouvernementalité algorithmique.

On trouvera aussi dans cette première partie un autre axe révélateur de débat entre, d’une part, les thèses défendues par Philippe de Grosbois (L’intelligence artificielle, une puissance médiocre) et, d’autre part, celles promues par Eric Martin (La privation du monde face à l’accélération technocapitaliste). Alors que le premier insiste sur le fait qu’un travail critique sur l’IA doit éviter de lui attribuer des capacités qu’elle n’a pas (« Il n’y a pas d’intelligence dans l’IA »), le second va à l’inverse montrer comment, sous l’emprise du capitalisme et du machinisme formaté à l’IA, on est en train de passer d’une société aux aspirations « autonomes » à des sociétés « hétéronomes » au sein desquelles le sujet se trouve alors « privé de monde » par un processus de déshumanisation et de « démondanéisation ». Deux approches apparemment aux antipodes l’une de l’autre, mais qui toutes deux cherchent à mieux mesurer – véritable défi – l’impact exact de l’IA sur nos vies : avec d’un côté, de Grosbois minimisant la portée d’une telle technologie et rappelant l’importance de poursuivre les tâches non achevées de déconstruction des systèmes d’oppression patriarcale et raciale, pendant que de l’autre côté, Martin insiste sur la nouveauté et le danger majeur que représente cet « oubli de la société » induit par le déploiement de l’IA.

Dans une tout autre perspective, Myriam Lavoie-Moore (Quelques leçons féministes marxistes pour penser une l’intelligence artificielle autrement) explore certains éléments des théories féministes de la reproduction sociale afin de voir si, à travers elles, on peut envisager une production et un usage de l’IA qui serviraient les activités reproductives sans les asservir aux impératifs de la valorisation. En refusant de rejeter en bloc l’adoption de telles technologies, elle fait cependant apercevoir, au fil de son analyse, certaines des limitations qu’elles comportent, notamment en ce qui concerne le rapport entre le temps de travail obligé et les tâches du « care », d’ordre relationnel.

Dans un deuxième temps cependant, De quelques effets bien concrets, certains auteurs ne manqueront pas de nous ramener à la vie ordinaire en montrant les effets immédiats et bien concrets de l’IA.

Ainsi Dominique Peschard de la Ligue des droits et libertés (Capitalisme de surveillance, intelligence artificielle et droits humains) traite des effets pervers associés d’ores et déjà à l’IA. Il insiste autant sur les activités toxiques qu’elle tend à promouvoir (le discours haineux, le partage non consensuel d’images intimes, etc.) que sur les problèmes de santé (la dépendance aux écrans) qui en résultent, les impacts environnementaux qu’elle induit ou encore la surveillance policière qu’elle renforce.

Le texte de Caroline Quesnel et Benoit Lacoursière de la Fédération nationale des enseignantes et enseignants du Québec (L’intelligence artificielle comme lieu de lutte du syndicalisme enseignant) va dans le même sens, mais en insistant, pour le domaine de l’éducation, sur les vertus d’une perspective technocritique permettant de résister au risque de la discrimination algorithmique comme à celui du non-respect des droits d’auteur ou encore aux fraudes grandissantes. Elle et il mettent en lumière la nécessité d’un encadrement plus strict de l’IA et l’importance d’appliquer le principe de précaution à celle-ci.

On retrouve la même approche avec Jérémi Léveillé (L’intelligence artificielle et la fonction publique : clarification et enjeux), cette fois-ci à propos de la fonction publique, en montrant comment l’IA « perpétue plutôt le statu quo, c’est-à-dire la marginalisation et la discrimination de certaines populations selon des critères de genre, de religion, d’ethnicité ou de classe socioéconomique », le tout permettant à l’État d’accroitre la productivité et de diminuer les coûts.

De son côté, Jonathan Martineau (Les temporalités sociales et l’expérience du temps à l’ère du capitalisme algorithmique) fait ressortir les effets très concrets que risque de faire naitre l’IA à propos d’une dimension de notre vie d’humain à laquelle on ne prête pas nécessairement toute l’attention requise : notre façon d’expérimenter le temps. Il montre que le déploiement de l’IA brouille la distinction traditionnelle entre temps de travail et temps de loisirs, mais aussi tend à accélérer tous les rythmes de vie ainsi qu’à nous enfermer dans une vision « présentiste » du temps, c’est-à-dire qui privilégie indûment le moment du présent sur ceux du passé et de l’avenir.

Enfin, dans un troisième temps, De quelques considérations sur l’avenir, Jonathan Durand Folco (Dépasser le capitalisme algorithmique par les communs ? Vers un communisme décroissant technosobre) décrit comment l’IA – dans une société post-capitaliste où la prise en charge des communs serait assumée collectivement et démocratiquement – pourrait être utilisée dans une perspective de technosobriété et de décroissance. Faisant cependant ressortir les multiples inconnues comme les nombreux débats qui sont nés à ce propos, son texte se présente comme un exercice prospectif nous permettant de saisir toute l’ampleur des questions en jeu.

On ne sera donc pas étonné de réaliser que si ne manquent pas les dénonciations et points de vue critiques théoriques comme pratiques, notre dossier ne s’est cependant guère attardé aux formes de lutte à mener. C’est que, nouveauté de la thématique de l’IA, bien peu a encore été élaboré, bien peu a été pensé et mis en pratique de manière systématique à propos des luttes globales à entreprendre à l’encontre des dangers et des dérives de l’IA et de ses multiples applications. Tout reste à faire !

Pourtant les défis que la conjoncture contemporaine a placés devant nous obligent à lier étroitement réflexion et action, et par conséquent à réfléchir en situation, en fonction du contexte où l’on se trouve et qui ouvre ou non à la possibilité d’agir collectivement. On ne peut en effet ne pas tenir compte de la réalité des rapports de force sociopolitiques existants. Mais on ne peut en même temps, ainsi que nous le montre ce dossier sur l’IA, ne pas radicaliser nos interrogations sur le cours du monde, c’est-à-dire oser prendre les choses à la racine et par conséquent pousser la réflexion aussi loin que possible, en toute liberté, en n’hésitant pas à aller à rebrousse-poil de toutes les confortables indifférences de l’heure, pour agir ensemble. Puisse ce dossier nous aider à aller dans cette direction !

Par Flavie Achard, Édouard Lavallière, Pierre Mouterde, André Vincent


NOTES

  1. Voir à titre d’exemple l’émission spéciale de deux heures de Radio-Canada le 7 décembre 2023, L’intelligence artificielle décodée, <www.youtube.com/watch?v=QFKHd2k_RNE>.
  2. Sur le plan culturel, la modernité est née quand, dans le cadre d’une conception générale du monde, ont commencé à s’imposer au XVIIIe siècle, à l’encontre des traditionnelles idées d’immuabilité du monde, de divinité, de foi et de fidélité, les idées nouvelles d’histoire, d’humanité, de raison (les sciences) et de liberté. Et au sein du paradigme culturel de la modernité, les progressistes apparaissaient comme ceux qui avaient repris à leur compte l’idée d’une histoire nous conduisant nécessairement vers le progrès. On pourrait avancer qu’il y avait en fait deux grands courants de progressistes : ceux qui imaginaient, notamment aux États-Unis, « la révolution par le progrès » et ceux qui imaginaient, notamment dans l’ex-URSS, « le progrès par la révolution ».
  3. Karl Marx, Le capital, Livre 3, Paris, Éditions sociales, 1976, chap. 48, p. 742.
  4. Le terme de « désappropriation » nous semble, dans le cas de l’IA, plus juste que celui de « dépossession » dans le sens où cette désappropriation va bien au-delà du phénomène de l’exploitation par exemple d’un salarié, quand on le dépossède – par l’extorsion d’une plus-value – de la part de valeur qui lui revient à travers son travail. En fait, avec l’IA et ses effets en chaîne, se poursuit et s’accomplit ce mouvement de dépossession en l’élargissant à la société entière et en bousculant les processus cognitifs et émotionnels à partir desquels l’être humain pouvait collectivement et à travers la culture faire preuve d’intelligence – user donc de cette capacité d’unifier le divers – en ayant ainsi les moyens de développer à travers l’histoire un sens de l’innovation inédit.
  5. « Contrairement à ChatGPT et ses semblables, l’esprit humain n’est pas un volumineux moteur de recherches statistiques en quête de modèles, avalant des centaines de téraoctets de données et extrapolant la réponse la plus probable à une question ou la solution la plus vraisemblable à un problème scientifique. Bien au contraire, l’esprit humain est un système étonnamment efficace et même raffiné qui fonctionne avec de petites quantités d’informations ; il ne cherche pas à déduire des corrélations sommaires à partir de données, mais à élaborer des explications. […] ChatGPT fait preuve de quelque chose de très similaire à la banalité du mal : plagiat, apathie et évitement. Elle reprend les arguments habituels de la littérature dans une sorte de superbe automaticité, refuse de prendre position sur quoi que ce soit, plaide non seulement l’ignorance mais aussi le manque d’intelligence et, en fin de compte, offre une défense du type « je ne fais que suivre les ordres », en rejetant toute responsabilité sur ses créateurs. » Noam Chomsky, New York Times, 8 mars 2023, traduction du site Les Crises, <https://www.les-crises.fr/la-promesse-trompeuse-de-chatgpt-noam-chomsky/>.Voir aussi Hubert Krivine, L’IA peut-elle penser ? Miracle ou mirage de l’intelligence artificielle, Louvain-la-Neuve, De Boeck Supérieur, 2021, p. 79 : « Comme l’écrit Yan Le Cun, « le fait que le monde soit tridimensionnel, qu’il y ait des objets animés, inanimés, mous, durs, le fait qu’un objet tombe quand on le lâche… les humains apprennent ça par interaction. Et ça, c’est ce qu’on ne sait pas faire avec les ordinateurs. Tant qu’on y arrivera pas, on n’aura pas de machines vraiment intelligentes. » […] Pour Descartes, c’est bien connu, « le bon sens est la chose du monde la mieux partagée; il ne l’est pas pour la machine. Bien des bévues de l’IA résultant de calculs très sophistiqués, doivent être corrigées en y faisant tout simplement appel ».
  6. Cédric Durand, Techno-féodalisme. Critique de l’économie numérique, Paris, Zones, 2020. Ce dernier rejoint en partie les thèses de Maxime Ouellet sur l’importance des biens intangibles (brevets, droits de propriété intellectuelle, etc.) au sein du capitalisme contemporain.

 

Il était une fois l’arsenic à Rouyn-Noranda…

27 novembre 2023, par Rédaction

BILAN DE LUTTES – La crise de l’arsenic est sans aucun doute l’un des dossiers qui m’a le plus sollicitée lors de mon mandat à titre de députée de Rouyn-Noranda-Témiscamingue de 2018 à 2022. Originaire du Témiscamingue, née en 1991, je suis arrivée en poste sans connaitre vraiment les enjeux reliés la Fonderie Horne de la compagnie Glencore qui pourtant mobilisaient des citoyennes et des citoyens de Rouyn-Noranda depuis des décennies déjà. Toutefois, même lorsque je n’en ai pas été moi-même la porteuse, j’ai toujours été une alliée des causes environnementales et sociales, raison pour laquelle j’ai décidé de faire le saut en politique à l’automne 2018 sous les couleurs de Québec solidaire.

Me voilà donc arrivée en poste, dans des souliers immenses, à 26 ans, sans compétence connue pour les fonctions de député, mais avec au ventre des convictions profondes pour améliorer et préserver le bien commun.

Dans les premières semaines qui ont suivi l’élection, j’ai rencontré des représentants du CISSS[1] de l’Abitibi-Témiscamingue pour échanger sur les grands dossiers du moment. L’étude de biosurveillance visant à connaitre les impacts de la pollution de l’air sur la santé de la population était à l’ordre du jour. Rouyn-Noranda était la ville qui enregistrait la plus mauvaise qualité de l’air au Québec, cela inquiétait les autorités de la Santé publique, avec raison.

C’est en mai 2019 que nous furent publiés les premiers résultats[2] : les enfants du quartier Notre-Dame au pied de la Fonderie Horne ont en moyenne quatre fois plus d’arsenic dans leurs ongles que les enfants du groupe témoin à Amos. Cet écart grimpe même jusqu’à 56 fois plus d’arsenic dans le corps d’un petit garçon du quartier. C’est une onde de choc. Mère de deux enfants, je suis atterrée, assommée.

L’arsenic est reconnu comme étant le roi des poisons. Personne n’en veut dans son corps et là, il se retrouve dans celui de nos enfants, ceux-ci en sont imprégnés jusqu’au bout des ongles. Rapidement, nous commençons à documenter la situation. Dès lors, nous constatons qu’il existe une norme québécoise pour limiter la présence d’arsenic dans l’air. Cette norme est fixée à une concentration moyenne annuelle de 3 ng/m3 d’air. Une exposition prolongée au-dessus de ce taux expose la population à des risques pour sa santé. Au même moment, on apprend que Glencore jouit d’un droit de polluer qui lui permet en 2018 d’émettre 200 ng/m3 dans l’air de Rouyn-Noranda. C’est 67 fois la norme québécoise. Un scandale !

Ce droit de polluer s’appelle une attestation d’assainissement, ou une autorisation ministérielle, dans le langage du ministère de l’Environnement. Celle-ci est renouvelable aux cinq ans. Elle a pour but de resserrer progressivement les exigences environnementales en fonction des connaissances acquises, des disponibilités technologiques et économiques ainsi que des besoins particuliers de protection des milieux récepteurs.

À Québec, je dénonce vivement la situation à la période des questions à l’Assemblée nationale. C’est le ministre délégué à la Santé et aux Services sociaux, Lionel Carmant, qui me répond : « J’ai demandé à la Santé publique si les enfants de Rouyn-Noranda vont bien et effectivement, on m’a répondu que les enfants sont en santé[3] ». Pour le reste, on devra attendre le rapport de l’étude pour se poser davantage de questions, les premiers résultats étant jugés insuffisants.

Sur le terrain à Rouyn-Noranda, ça bouge. Se forme un comité de parents d’enfants du quartier Notre-Dame et de citoyennes et citoyens inquiets et mobilisés pour protéger la santé de leurs enfants et de la population de Rouyn-Noranda : le comité ARET, pour Arrêt des rejets et émissions toxiques. Ce comité se donne la tâche de s’informer et de documenter la situation. Les travaux de recherche d’ARET ont permis d’apprendre qu’il y a eu deux attestations d’assainissement depuis l’entrée en fonction de la fonderie, la première en 2007 et la seconde en 2017. Ces attestations n’ont donc pas été émises aux cinq ans et elles l’ont été sans resserrement des exigences : une autorisation de 200 ng/m3, de 2007 à 2012, et une autre de 2017 à 2021 où on demandait d’atteindre 100 ng/m3 à la fin de l’année : quatorze ans pour resserrer une norme à un niveau 33 fois plus grand que la norme québécoise ! Autant dire que les gouvernements qui se sont succédé pendant ces années n’ont jamais pris à cœur la protection de la santé de la population de Rouyn-Noranda.

Les risques pour la santé de la population, il y en a plusieurs, et ils sont très préoccupants : risques accrus de cancer (poumon, vessie, prostate, peau), risques cardio-vasculaires, problèmes respiratoires, risques reliés à la grossesse (retard de croissance intra-utérine, petit poids à la naissance, accouchement prématuré, etc.). Les enfants sont aussi plus fragiles à la toxicité des métaux lourds, dont l’arsenic et le plomb. Plus on est exposé tôt, plus le risque est grand et celui-ci augmente avec la durée d’exposition.

Pour espérer corriger la situation, il a fallu clarifier ce que faisait la Fonderie Horne de Glencore. Cette fonderie, qui existe depuis 1926, est à l’origine de la création de la ville de Rouyn-Noranda, la « capitale nationale du cuivre », car l’usine fond du cuivre depuis ce temps : d’abord le cuivre de la mine qui se trouve sous le site, et ensuite du minerai en provenance de partout dans le monde quand la mine fut fermée en 1976.

Actuellement la fonderie traite du concentré dit « vert »[4], tiré de gisements de cuivre avec peu d’arsenic et autres métaux, auquel on ajoute un concentré complexe, riche en or, en argent et en « poisons ». Ce sont ces derniers qui émettent le plus de métaux lourds dans l’air. Ailleurs dans le monde, les teneurs d’arsenic acceptées pour ce type de résidus sont beaucoup plus sévères. Personne ne veut ce concentré complexe, pas même la Chine : il est donc plus payant pour la fonderie de le traiter que de le vendre au rabais. La fonderie fait aussi le recyclage de matériaux électroniques et de « déchets industriels ». Elle insiste sur le recyclage, cela « enverdit » son activité…

On attire beaucoup l’attention sur l’arsenic parce que ça frappe l’imaginaire, mais la fonderie rejette aussi du plomb, du cadmium, du nickel, du bismuth, du chrome, etc. Presque tout le tableau périodique des éléments y passe.

Plus tard, on apprendra que le gouvernement connaissait cette situation depuis bien longtemps. Dès 1982, des chercheurs de l’Université Laval ont levé un drapeau rouge en concluant qu’il y a plus de cancers du poumon et plus de maladies pulmonaires chroniques, de maladies du système digestif et du système endocrinien à Rouyn-Noranda qu’à Val-d’Or et au Québec, et cela, en excluant les mineurs et les fumeurs.

On apprendra aussi que, dès 2004, des recommandations avaient été formulées pour réduire drastiquement les émissions d’arsenic. Après 10 ans de concentration « record » d’arsenic dans l’air ambiant, avec un pic de plus de 1000 ng/m3 en l’an 2000, onze experts interministériels, toxicologues, métallurgistes… déclarent :

Finalement, le groupe de travail ne croit pas qu’une évaluation de risques de grande envergure soit nécessaire pour améliorer la connaissance de la situation. On dispose actuellement de renseignements suffisants pour affirmer que les émissions d’arsenic dans l’air ambiant doivent être mieux contrôlées par la Fonderie Horne[5].

Ils recommandent d’exiger que la fonderie atteigne une moyenne annuelle de 10 ng/m3 d’arsenic dans l’air en 18 mois et qu’elle se dote d’un plan pour atteindre la norme de 3 ng/m3.

Ces recommandations n’ont pas eu de suite. L’attestation qui suivit en 2007 fixait une cible à 200 ng/m3 en 2012 alors que les émissions étaient autour de 150 ng/m3. À l’Assemblée nationale, je mets le dossier à l’avant-plan à l’automne 2019, une fois publié le fameux rapport de la Santé publique régionale. On n’y apprenait rien de neuf. Tout dans ce rapport militait pour poser des gestes rapidement. J’ai eu droit à des déclarations inquiétantes : « Les risques sont minimes » ! nous a dit le premier ministre François Legault ; Benoit Charrette, ministre de l’Environnement, m’a accusée « d’exacerber les inquiétudes de la population ». Sous la pression populaire, le gouvernement pose toutefois quelques gestes : il demande un plan de réduction à la fonderie et met en place un comité interministériel pour évaluer ce plan. L’échéance est fixée au 15 décembre 2019.

À ce moment-là, peu de médias nationaux ont de l’appétit pour le sujet. Le dossier résonne entre les frontières de l’Abitibi-Témiscamingue, mais il ne franchit pas le parc de La Vérendrye.

Puis la pandémie de COVID-19 est arrivée. Le coronavirus était sur toutes les lèvres et dans tous les bulletins télé et radio. Le Québec a découvert le travail de la Santé publique et son directeur national, « héros » de l’ombre, Horacio Arruda. Mais pendant deux ans, les choses ont peu avancé sur le dossier de l’arsenic. La fonderie a finalement déposé un plan bonifié en juillet 2020, mais il a fallu attendre mars 2021 pour que le comité interministériel dépose un rapport complaisant. Aucune cible n’est exigée, aucun échéancier clair, demande d’accélération de quelques actions tout au plus, de sorte qu’en 2020, la fonderie émet une moyenne de 70 ng/m3 d’arsenic et, en 2021, le taux augmente à 87 ng/m3.

Au printemps 2022, le dossier refait surface quand la Santé publique régionale de l’Abitibi-Témiscamingue publie de nouvelles données alarmantes sur l’état de santé de la population de Rouyn-Noranda[6]. On y apprend la surreprésentation de bébés de petit poids à la naissance (30 % de plus) et avec un retard de croissance intra-utérine; une espérance de vie écourtée de six ans partout dans Rouyn-Noranda; 30 % de plus de cancers du poumon; 50 % de plus de maladies pulmonaires chroniques alors que la ville n’a pas plus de fumeurs que la moyenne du Québec.

Pour la première fois, des médecins de Rouyn-Noranda prennent la parole sur la place publique[7]. Outre ces données qui nous incitent à remettre le dossier de l’avant, l’échéance de l’attestation d’assainissement arrive. En novembre prochain, une nouvelle entente devra être signée avec Glencore et de nouvelles cibles devraient donc être exigées. En commission parlementaire, j’arrive à arracher la réponse du ministre de l’Environnement : 30 ng/m3, c’est la nouvelle cible souhaitée. C’est encore 10 fois plus que la norme québécoise.

Le 10 juin 2022, dernier jour des travaux de l’Assemblée nationale, j’ai l’honneur de poser la dernière question de Québec solidaire à la période des questions. Je tente un ultime essai pour mettre de la pression sur le gouvernement. Le ministre de l’Environnement me répond qu’exiger la norme québécoise à la fonderie, c’est exiger sa fermeture. C’est le début d’un discours de peur. Une semaine plus tard, alors que l’actualité « s’en va en vacances », ici, en Abitibi-Témiscamingue, on publie un article rapportant que le docteur Arruda aurait retiré une annexe importante du rapport de biosurveillance de 2019 et qui concernait les taux de cancers à Rouyn-Noranda[8].

C’est le début du plus gros battage médiatique qu’il m’a été donné de connaitre. Enfin ! Sur le terrain, de nouveaux groupes citoyens naissent et s’impliquent : Rouyn-Noranda, faut qu’on se parle; RN Rebelle; Mères au front; Association pour la défense des droits, IMPACTE (médecins). Des gens influents, normalement plutôt discrets sur ces enjeux, s’expriment publiquement. L’agenda du gouvernement caquiste est bousculé. Chaque fois que François Legault fait un point de presse, on le questionne sur la Fonderie Horne. En pleine période électorale, les occasions sont nombreuses. Plus de 250 personnes se présentent à une assemblée publique organisée au début de juillet. Les journalistes affluent de partout pour venir couvrir ce qui se passe à Rouyn-Noranda. Les mentions du dossier dans les médias nationaux se multiplient : à l’émission 24/60 de RDI, Midi-Info, Noovo, à la radio 98,5 à Montréal… Tout le Québec a les yeux rivés sur Rouyn-Noranda et sur sa lutte citoyenne qui prend de l’ampleur. Des médias français se déplacent à Rouyn-Noranda; des films sont produits. Le docteur Luc Boileau, qui a succédé au Dr Arruda, se rend dans la région à plusieurs reprises pendant l’été pour tenter de rassurer la population, mais chaque fois, c’est plutôt l’effet inverse qui se produit. La confiance de la population est minée à l’égard du gouvernement et de la Santé publique nationale qui mettent de plus en plus de l’avant une cible de 15 ng/m3, encore cinq fois de plus que la norme provinciale !

À la mi-août, le ministère de l’Environnement précise les exigences qui seront demandées à la fonderie : 15 ng/m3 au terme de la prochaine attestation, soit en 2027. Il reprend le discours de la Santé publique, mais avec un échéancier qui ne fait aucun sens – dans cinq ans ! – puisque la santé de la population est encore négligée. De plus, le plan est moins ambitieux que celui présenté par la fonderie en juillet 2020 !

La semaine suivante, la fonderie annonce un plan qui colle à celui du ministère, ce qui soulève l’ire de la population. Le 1er septembre, le docteur Boileau revient dans la région. Lors d’une assemblée publique, après trois heures d’intenses échanges avec la population, il admet qu’il ne souhaite pas attendre cinq ans pour l’atteinte de 15 ng/m3. Le gouvernement de la Coalition avenir Québec (CAQ), déclinant sa responsabilité, nous dit que ce sera à la population de Rouyn-Noranda de décider si le plan est recevable ou pas. Il y aura une consultation publique du 6 septembre au 20 octobre alors que les élections québécoises auront lieu le 3 octobre…

La population de Rouyn-Noranda manifeste avec éclat le 21 septembre : plus de 1000 personnes de tous les âges marchent dans les rues pour réclament la norme québécoise et l’encadrement de tous les métaux lourds. Le 29 septembre, François Legault débarque à Rouyn-Noranda pour soutenir son candidat caquiste et répéter son discours menaçant : la fonderie risque de fermer si on est trop exigeant avec elle, il y a danger de perdre 600 jobs, très bien payées… Un discours qui suscite la colère, mais aussi la division.

Le 3 octobre, après un été de lutte aux côtés des groupes citoyens et de la population, je perds mes élections au profit de la CAQ. C’est la consternation partout d’un bout à l’autre du Québec. On parle de cette défaite dans l’ensemble des médias. Un média anglophone va même jusqu’à écrire : « The chickens voted for Colonel Sanders[9] ».

Quelques semaines plus tard, les résultats de la consultation publique sont dévoilés : il n’y a aucune acceptabilité pour le plan proposé par la fonderie et le ministère. Mais durant l’automne, la fatigue militante se fait sentir. Tout le monde passe en mode attente de ce qui se retrouvera finalement dans la fameuse attestation d’assainissement et les prochaines exigences à Glencore.

C’est finalement en mars 2023 que la CAQ dévoile son plan en jetant un nouveau pavé dans la marre : l’établissement d’une zone tampon aux abords de la fonderie. Si les cibles pour les émissions d’arsenic restent les mêmes que celles du plan initial, soit l’objectif de 15 ng/m3 en 2027, le gouvernement a décidé de relocaliser 200 ménages et de détruire 80 bâtiments pour « éloigner » des habitants de la fonderie. Les gens visés par cette expropriation déguisée l’ont appris à la radio en même temps que le reste du Québec.

C’est le début d’un nouveau chapitre de cette lutte qui se poursuit encore : la lutte pour la santé de la population de Rouyn-Noranda et pour son droit à un air de qualité comme dans le reste du Québec, mais aussi pour que les exproprié·e·s de la zone tampon ne soient pas doublement perdants après avoir vécu des décennies à l’ombre de ces « cheminées éternelles comme l’enfer[10] », comme le chante Richard Desjardins.

La dénonciation de cette injustice sanitaire et environnementale n’aurait pu se faire sans l’implication individuelle ou en groupe de nombreux citoyens et citoyennes. Il est difficile de se faire entendre loin des grands centres urbains. Cette lutte citoyenne rallie et trace la voie à d’autres groupes au Québec qui vivent des injustices et les encourage à faire reconnaitre leur droit à vivre dans un milieu sain.

Le 26 septembre dernier, près de 1000 personnes ont marché dans les rues de Rouyn-Noranda pour dénoncer encore une fois le plan totalement inacceptable de la fonderie. La lutte résonne encore, mais est-ce que le gouvernement saura bouger maintenant qu’il est confortablement assis sur son trône pour encore quatre ans, bien au chaud, à 900 km des volutes d’arsenic…

Par Émilise Lessard-Therrien, ex-députée de Rouyn-Noranda-Témiscamingue avec la collaboration du comité ARET de Rouyn-Noranda.


NOTES

  1. CISSS : Centre intégré de santé et de services sociaux.
  2. CISSS de l’Abitibi-Témiscamingue, Études de biosurveillance sur l’imprégnation à l’arsenic de la population du quartier Notre-Dame de Rouyn-Noranda, 2019, </www.cisss-at.gouv.qc.ca/biosurveillance/#:~:text=%C3%80%20l’automne%202019%2C%20la,%2DDame%20%C3%A0%20Rouyn%2DNoranda>.
  3. Véronique Morin, « Arsenic à Rouyn-Noranda : un scandale “national”, selon l’expert en environnement Louis-Gilles Francoeur », Journal de Québec, 15 mai 2019.
  4. « Les concentrés de cuivre, catégorisés par l’exploitant en deux classes, notamment les concentrés verts et complexes, proviennent des différentes mines à travers le monde. Les concentrés verts sont constitués essentiellement de cuivre et contiennent peu d’impuretés. Les concentrés complexes contiennent un mélange de cuivre, de métaux précieux (or, argent, platine, palladium, etc.) et d’autres substances telles que le plomb, le cadmium et l’arsenic. » Ministère de l’Environnement et de la Lutte contre les changements climatiques, Avis technique, 17 décembre 2021, <www.environnement.gouv.qc.ca/ministere/consultation-fonderie-horne/documents/Enjeux%20environnementaux/Renouvellement%20autorisation%20minist%C3%A9rielle%202022-2027/Avis%20concernant%20la%20gestion%20des%20GMR%20et%20des%20GMDR/2021-12-17_MELCC_Avis_technique_GMR_et_GMDR.pdf>.
  5. Ministère de l’Environnement, ministère de la Santé et des Services sociaux, Institut national de santé publique, Avis sur l’arsenic dans l’air ambiant à Rouyn-Noranda, Québec, gouvernement du Québec, novembre 2004.
  6. Avis de la Direction de santé publique du Centre intégré de santé et de services sociaux de l’Abitibi-Témiscamingue sur les émissions de la Fonderie Horne et sur le plan déposé dans le cadre du renouvellement de son autorisation ministérielle, 15 octobre 2022,<www.cisss-at.gouv.qc.ca/wp-content/uploads/2022/10/2022-10-15_Avis-DSPu-AT_Renouvellement-autorisation-ministerielle-Glencore-Fonderie-Horne_Final-web.pdf> et <www.cisss-at.gouv.qc.ca/partage/BIOSURVEILLANCE/2022-05-11_CC-PRESENTATION-SANTE.pdf>.
  7. Jean-Thomas Léveillé, « Cri du cœur des médecins », La Presse, 3 juillet 2022.
  8. Jean-Marc Belzile, « Horacio Arruda a empêché la diffusion de données sur le cancer à Rouyn-Noranda », Radio-Canada, 20 juin 2022 ; « Le DArruda a rencontré la fonderie Horne avant de retirer de l’information », La Presse, 21 juin 2022.
  9. NDLR. « Les poulets ont voté pour le colonel Sanders ». Il s’agit d’une expression retrouvée aux États-Unis à diverses occasions en référence à la chaine de restauration rapide PFK de poulet frit fondée par le colonel Sanders.
  10. Avec ces paroles, le chanteur Richard Desjardins fait référence aux deux immenses cheminées de la Fonderie Horne de Rouyn-Noranda, sa ville natale. On les retrouve dans la chanson Et j’ai couché dans mon char, 1990.

 

Membres