Revue Droits et libertés
Publiée deux fois par année, la revue Droits et libertés permet d’approfondir la réflexion sur différents enjeux de droits humains. Réalisée en partenariat avec la Fondation Léo-Cormier, la revue poursuit un objectif d’éducation aux droits.
Chaque numéro comporte un éditorial, les chroniques Un monde sous surveillance, Ailleurs dans le monde, Un monde de lecture, Le monde de l’environnement, Le monde de Québec, un dossier portant sur un thème spécifique (droits et handicaps, droits des personnes aînées, police, culture, droit à l’eau, profilage, mutations du travail, laïcité, etc.) ainsi qu’un ou plusieurs articles hors-dossiers qui permettent de creuser des questions d’actualité. Les articles sont rédigés principalement par des militant-e-s, des représentant-e-s de groupes sociaux ou des chercheuses ou chercheurs.
Créée il y a 40 ans, la revue était d’abord diffusée aux membres de la Ligue des droits et libertés. Depuis, son public s’est considérablement élargi et elle est distribuée dans plusieurs librairies et disponible dans certaines bibliothèques publiques.
Bonne lecture !

Une culture de surveillance
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Stéphane Leman-Langlois, professeur titulaire, École de travail social et de criminologie, Université Laval et militant au comité surveillance des populations, IA et droits humains de la LDL En 2010, quelques-uns de mes étudiants et moi avons demandé à plus de 600 personnes qui descendaient de nouveaux métrobus du Réseau de transport de la capitale s’ils avaient remarqué l’une des sept caméras installées à bord (en plus de deux microphones) durant leur voyage. Près de 40 % d’entre elles nous ont répondu que non, bien qu’un dôme de 20 cm de diamètre trône déjà à l’entrée, où il faut s’arrêter pour régler son déplacement. L’immense majorité des voyageurs interrogés n’y voyaient par ailleurs aucun inconvénient. Cette indifférence généralisée s’explique par plusieurs facteurs, dont la simple réduction de la taille des caméras et leur intégration esthétique aux endroits où elles sont installées (couleur, matériau, forme). Elle a également souvent été expliquée par l’évolution des perceptions face à la surveillance en général, surtout due à l’omniprésence de stratégies et d’appareils, qui l’a banalisée. À voir les sondages, cette indifférence semble bien s’étendre à la plupart des nouvelles formes de surveillance, même si l’immense majorité d’entre nous se disent aussi préoccupés par la protection de leur vie privée. Cette contradiction s’amoindrit sensiblement lorsqu’on constate que les répondants sont rarement suffisamment préoccupés pour prendre des mesures de protection de base (chiffrement, stratégies et logiciels d’anonymisation, appareils et applications sécurisés, etc.). Cela dit, il n’y a jamais eu de glorieux passé libre de surveillance, avec lequel le contraste serait évident. L’être humain est social et cherche à exister sous l’œil de ses semblables. Les résidents du petit village québécois d’antan, avec la proximité, les commérages et la curiosité, finissaient par tout savoir au sujet de tout le monde. Bref, nous étions déjà indifférents à ces formes de surveillance communautaires – omniprésentes, profondes et totales.L’apparition d’une culture généralisée de surveillance
Objectivement, la différence est qu’aujourd’hui à la fois la collecte, la distribution et la conservation des données ne sont plus (uniquement) horizontales, entre pairs. Certains ont argumenté que la société de l’information a simplement pris la relève lors de la disparition des formes traditionnelles de surveillance. Quoi qu’il en soit, les informations collectées sont désormais bien davantage que de simples souvenirs et acquièrent une existence propre, sujettes à une foule d’usages secondaires, aspirées par de multiples entités non redevables, voire tout bonnement inconnues. C’est dans ce contexte qu’il faut noter l’apparition récente et le développement fulgurant d’une industrie très prospère fondée sur un aspect ou un autre de ce flux intarissable de données personnelles. C’est l’aspect central du concept de capitalisme de surveillance, qu’il faut donc comprendre comme une émanation d’une culture généralisée de surveillance. La plus solide fondation de cette culture est notre participation active et volontaire au système, à la fois pour nous offrir à la surveillance des autres, pour les surveiller ou pour réclamer qu’un tiers (gouvernemental ou privé) le fasse pour nous. Recueillir de l’information est la panacée qu’on oppose à toutes les formes de problèmes, de l’intimidation à l’extérieur de l’école à la qualité de l’air à l’intérieur, de la sécurité du logis à son chauffage, à notre santé, notre conduite et notre assurance automobile, la personnalité de nos intérêts amoureux, etc.Quoi qu’il en soit, les informations collectées sont désormais bien davantage que de simples souvenirs et acquièrent une existence propre, sujettes à une foule d’usages secondaires, aspirées par de multiples entités non redevables, voire tout bonnement inconnues.Paradoxalement, cette course à la surveillance entraîne sa disparition progressive. Non pas au sens où elle cesse d’exister, mais bien parce qu’elle est intégrée à chacune de nos activités, à un point tel qu’elle cesse peu à peu d’être une pratique autonome. Ceci, surtout parce qu’elle est réalisée à l’aide de dispositifs dont la fonction première est tout autre : le thermostat qui sait si quelqu’un est à la maison, notre application de réseautage qui nous permet de scruter la vie des autres, notre application GPS qui révèle notre position, etc. Ceci génère bien sûr une foule de données sur nos com- portements, et une nouvelle industrie multimilliardaire, au point qu’il tient désormais du lieu commun d’affirmer que les données sont le nouveau pétrole. L’État et ses agences ont bien sûr aussi noté ce développement alléchant et, des polices municipales exploitant Facebook aux révélations de Snowden, on a vu et revu qu’il est toujours plus efficace de détourner les données déjà produites par cet assemblage disparate que de développer et d’opérer des systèmes de surveillance dédiés.
Une perte de valeur éventuelle
Il faut toutefois noter que, contrairement à la plupart des ressources naturelles exploitables, dont la quantité diminue à mesure de leur extraction, la quantité d’information personnelle disponible à un usage industriel est vouée à une augmentation exponentielle. L’internet des objets, où pullulent les appareils intelligents produisant et échangeant des informations sur leur utilisateur, générera un flux toujours plus considérable d’information. La simple loi de l’offre prévoit donc une perte proportionnelle de sa valeur, sans compter qu’en moyenne chaque nouvel élément d’information est de moins en moins révélateur (au sens où il ajoute peu, voire rien, au modèle statistique actuariel déjà façonné). Notons de plus que la puissance des publicités ciblées vendues sur les plateformes numériques est en déclin accéléré. Les utilisateurs ne cliquent tout simplement plus dessus, et lorsqu’ils le font c’est par erreur ou par curiosité : elles génèrent donc de moins en moins de revenus1. Bref, à court ou à moyen terme le capitalisme de surveillance, du moins tel que nous le connaissons aujourd’hui, se dirige vers le proverbial mur de brique. Avant de s’en réjouir, par contre, il faut bien comprendre que depuis 20 ans l’internet au complet est structuré pour et par ce système, et pourrait bien s’écrouler avec lui.L’État et ses agences ont bien sûr aussi noté ce développement alléchant et, des polices municipales exploitant Facebook aux révélations de Snowden, on a vu et revu qu’il est toujours plus efficace de détourner les données déjà produites par cet assemblage disparate que de développer et d’opérer des systèmes de surveillance dédiés.
Une culture de surveillance pérenne?
Quoi qu’il en soit, notre culture de surveillance survivra aisément à la disparition ou à l’arrivée de modèles différents d’économie des données personnelles. Heureusement, elle non plus n’est pas aussi blindée, hégémonique qu’il n’y paraît. Elle a entre autres donné naissance à une culture de contre-surveillance : la conscience de la dissémination de renseignements à notre sujet inspire certains d’entre nous à prendre une série de mesures de contournement et de subversion, comme l’inscription de fausses données, la création de comptes multiples et autres stratégies visant à corrompre leur double numérique et à farcir d’erreurs les banques de données. La démocratisation des outils de surveillance a aussi multiplié nos capacités de sous-veillance, comme dirait Steve Mann, avec lesquelles le citoyen réussit à faire pencher la balance un peu plus du côté de la redevabilité des institutions, notamment via la nouvelle visibilité de la police, qui travaille désormais sous les caméras du public. Enfin les Manning, Snowden et autres sonneurs d’alerte sont rapidement, inéluctablement et irrémédiablement diffusés dans l’ensemble de la planète. D’un point de vue citoyen, notre culture de surveillance a simplement besoin d’une nouvelle impulsion qui redirigerait son attention globale plus solidement vers les complexes institutionnels publics, privés et hybrides. On devra également y faire germer la notion que ce système de surveillance est un large réseau, donc plus ou moins solide, plus ou moins opportuniste, plus ou moins capitaliste, libéral ou totalitaire, mais dont les citoyens eux- mêmes constitueront toujours l’immense majorité des nodes.- Tim Hwang, The Subprime Attention Crisis : Advertising and the Time Bomb at the Heart of the Internet, FSG Originals, New York, 2020
L’article Une culture de surveillance est apparu en premier sur Ligue des droits et libertés.

Pas de quoi contrecarrer le modèle d’affaires des GAFAM
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Anne Pineau, militante au comité surveillance des populations, IA et droits humains de la LDL La protection des renseignements personnels (RP) fait partie intégrante du droit à la vie privée reconnu par les chartes des droits. Il assure le contrôle des individus sur leurs données et leur droit « de déterminer eux-mêmes à quel moment les renseignements les concernant sont communiqués, de quelle manière et dans quelle mesure1 ». Les lois de protection des RP adoptées dans les années 80 et 90 posent les principes de cette protection : consentement de la personne concernée (PC) à la cueillette de ses RP; minimisation de la collecte aux seuls RP nécessaires; respect des finalités et destruction des données après réalisations des fins; sécurisation et confidentialité des RP; accès de la PC à ses données. Mais le développement fulgurant de l’informatique, des réseaux sociaux et de l’intelligence artificielle ont fait naître d’autres enjeux et rendu ces lois en partie obsolètes. Une sérieuse mise à jour s’imposait, particulièrement pour contrecarrer l’accumulation effrénée de données par les plateformes numériques (GAFAM), à des fins publicitaires, politiques ou autres. La réponse du gouvernement québécois a consisté dans le dépôt du Projet de loi 64 (PL 64)2, modifiant tant la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels (LAI)3 que la Loi sur la protection des RP dans le secteur privée4. Largement inspiré du Règlement général sur la protection des données (RGPD) du Parlement européen, le PL 64 apporte plusieurs correctifs comme celle de la notion de RP qui est élargie ; elle s’étend aux informations permettant d’identifier une personne physique, directement ou indirectement. Les exigences sont aussi resserrées en matière de consentement (qui doit être manifeste, libre, éclairé, donné à des fins spécifiques et distinctement pour chacune des fins); mais du même souffle le PL 64 multiplie les cas où les RP pourront être utilisés ou transmis sans consentement. De plus, tout produit ou service technologique disposant de paramètres de confidentialité devra, par défaut, assurer le plus haut niveau de confidentialité; mais cette obligation ne s’applique pas aux témoins de connexion (cookies). Lors de la collecte de RP, les fonctions d’identification, de localisation ou de profilage qu’une entreprise ou un organisme public (OP) utilise éventuellement devront être désactivées par défaut; ces fonctions devront donc être activées par la PC, si elle y consent. Ensuite, toute personne qui fait l’objet d’une décision « fondée exclusivement sur un traitement automatisé » doit être informée de ce fait, de même que des RP et des principaux facteurs utilisés pour rendre la décision; contrairement au RGPD, il ne sera pas possible de s’opposer au traitement entièrement automatisé d’une décision. Un élément important à souligner est la perte du pouvoir de contrôle de la Commission d’accès à l’information (CAI) en matière de Recherche; la communication de RP à cette fin sera possible sur simple Évaluation des facteurs relatifs à la vie privée (EFVP), une sorte d’étude d’impact maison menée par l’entreprise ou l’organisme; on passe donc d’un régime d’autorisation (par un tiers indépendant) à un système d’autorégulation. Le tout pour la communication sans consentement de RP possiblement très sensible. Du côté du secteur privé, les entreprises ou OP ont le droit de conserver et d’utiliser les RP, sans consentement, lorsque les fins pour lesquelles ils ont été recueillis sont accomplies, à condition de les anonymiser ; ce qui est contraire au principe de base de la destruction des RP après réalisation des fins. Cela est d’autant plus inadmissible que l’anonymisation est un procédé qui n’est pas infaillible. Les entreprises et OP ont aussi l’obligation d’aviser les personnes touchées par un bris de confidentialité lorsque l’incident présente un risque de préjudice sérieux; la personne n’a cependant pas à être avisée tant que cela serait susceptible d’entraver une enquête policière et comme ces enquêtes peuvent être longues, les victimes pourraient très bien être avisées du vol de leurs données longtemps après le fait. Notons une augmentation importante des sanctions pénales en cas de contravention à la loi par une entreprise (amende maximale de 25M$ ou 4 % du chiffre d’affaires mondial.) La CAI se voit accorder un pouvoir de sanction administrative (montant maximal de sanction pour une entreprise pouvant atteindre 10M$ ou 2 % du chiffre d’affaires mondial). L’entreprise pourra toutefois s’engager auprès de la CAI à prendre les mesures nécessaires pour remédier au manquement, auquel cas elle ne pourra faire l’objet d’une sanction administrative.Ces dispositions entreront en vigueur graduellement d’ici 2024. Si on peut noter quelques avancées intéressantes, le PL 64 comporte aussi plusieurs reculs; et ces modifications législatives s’avèrent nettement insuffisantes pour répondre aux enjeux actuels.Le PL 64 laisse en plan plusieurs questions. La biométrie, notamment l’utilisation de la reconnaissance faciale, est ignorée5. Pourtant un contrôle accru de cette technologie s’imposait au vu des affaires Clearview AI6 et du Centre commercial Place Ste-Foy7. La CAI faisait d’ailleurs valoir dans son mémoire sur le PL 64 que « la législation actuelle ne permet pas d’encadrer adéquatement certaines utilisations de cette technologie8 ». Si la désactivation par défaut de certains outils de traçage doit être saluée, on peut toutefois craindre que l’inactivation de ces outils affecte délibérément le fonctionnement ou la qualité du service ou du produit technologique. Par ailleurs, le traitement de données massives par intelligence artificielle soulève des enjeux sociétaux. L’édiction de règles de transparence et d’explication des modes de fonctionnement de ces systèmes est essentielle. Les algorithmes de personnalisation peuvent conduire les individus à s’enfermer dans leurs certitudes et miner la capacité de mener des débats publics éclairés. Les chambres d’écho des réseaux sociaux peuvent, quant à elles, amoindrir la circulation de l’information et la diversité d’opinions et mener à de la manipulation. En outre, des algorithmes mal calibrés peuvent entretenir – voire aggraver – des pratiques discriminatoires. De nombreux cas prouvent que des vices de conception ou l’usage de données historiquement biaisées peuvent conduire l’algorithme à reproduire, voire aggraver, des attitudes et des comportements discriminatoires. La LDL réclamait une divulgation publique et proactive du mode de fonctionnement de ces systèmes et leur surveillance par audit indépendant. Le PL 64 ne répond pas à ces préoccupations. Le PL 64 ne révolutionne rien. Il conforte un modèle d’affaires fondé sur l’extraction de données et l’accaparement des traces numériques que nous laissons derrière nous. En y mettant toutefois quelques formes, du côté du consentement. Pas de quoi limiter ou proscrire la logique d’accumulation de données comportementales ni rameuter les troupes de lobbyistes à l’emploi des GAFAM. Nous sommes ici à des lieux de ce que Shoshana Zuboff appelle de ses vœux, à savoir, des « lois qui rejettent la légitimité fondamentale des déclarations du capitalisme de surveillance et qui mettent fin à ses opérations les plus primaires, y compris la restitution illégitime de l’expérience humaine sous forme de données comportementales9 ».
- R. c. Spencer, 2014 CSC 43, 2 RCS 212, par. 40.
- Maintenant adopté sous le nom de chapitre 25 (Loi 25) des lois de
- Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels, chapitre A-2.1 (LAI)
- Loi sur la protection des renseignements personnels dans le secteur privé (Loi privée), chapitre P-39.1
- Sauf en ce qui concerne le préavis, à la CAI, de constitution d’une banque de données biométriques.
- En ligne : https://www.cai.gouv.qc.ca/la-commission-ordonne-clearview-ai-de-cesser-ses-pratiques-de-reconnaissance-faciale-non-conformes/
- En ligne : https://www.journaldequebec.com/2020/10/31/ivanhoe-cambridge-a-abandonne-lidee
- En ligne : https://wcai.gouv.qc.ca/documents/CAI_M_projet_loi_64_ modernisation_PRP.pdf
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Zulma, 2020, p. 463.
L’article Pas de quoi contrecarrer le modèle d’affaires des GAFAM est apparu en premier sur Ligue des droits et libertés.

À la lumière du droit international des droits de la personne
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Silviana Cocan, docteure en droit, chargée de cours et chercheuse postdoctorale, Faculté de droit, UdM et militante au comité surveillance des populations, IA et droits humains de la LDL L’émergence du capitalisme de surveillance est étroitement liée aux progrès technologiques, notamment dans le domaine du numérique, qui n’ont pas été anticipés par le droit international des droits de la personne. Le cadre juridique international protège principalement le droit à la vie privée et avait vocation initialement à imposer à la charge des États des obligations internationales de protection, sans toutefois prendre en considération le rôle joué par les entreprises privées. Ainsi, l’article 12 de la Déclaration universelle des droits de l’homme (1948) et l’article 17 du Pacte international relatif aux droits civils et politiques (1966) soulignent l’interdiction des « immixtions arbitraires ou illégales dans sa vie privée, sa famille, son domicile ou sa correspondance [et des] atteintes illégales à son honneur et à sa réputation ». Ces dispositions consacrent également le droit de toute personne à « la protection de la loi contre de telles immixtions ou de telles atteintes ». Néanmoins, la protection de la vie privée et des données personnelles dans l’espace numérique exploité par des entreprises privées, qui échappent au contrôle étatique, soulèvent de nombreux enjeux. Le droit international des droits de la personne s’adresse en premier lieu aux États et à leurs organes, qui sont tenus de s’y conformer et de veiller à ce que des tiers ne portent pas atteinte aux droits et libertés garantis. Il est vrai que dans les Principes directeurs relatifs aux entreprises et aux droits de l’homme (2011), les Nations Unies avaient souligné que les entreprises étaient tenues de respecter les droits de la personne, de minimiser les incidences négatives de leurs activités et de prévoir de mesures de réparation ou de collaborer à leur mise en œuvre en cas d’atteintes aux droits de la personne. Or, le capitalisme de surveillance s’est développé en l’absence d’un cadre juridique contraignant et dans l’incertitude des obligations à la charge des entreprises opérant dans le domaine numérique.Une nouvelle matière première
L’exploitation massive des données personnelles des utilisateurs a permis progressivement l’émergence d’un nouveau modèle de publicité ciblée en exploitant les informations de profils d’utilisateurs1, d’une redéfinition du consentement libre et éclairé des consommateurs face à des conditions générales d’utilisation complexes et d’un manque de transparence dans le traitement des données personnelles. La collecte de ces données sous couvert d’une utilisation gratuite et illimitée des services a permis la concrétisation d’un « nouvel ordre économique qui revendique l’expérience humaine comme matière première gratuite à des fins de pratiques commerciales dissimulées d’extraction, de prédiction et de vente2 ». Les Nations Unies se sont emparées de la question en envisageant le droit à la vie privée à l’ère du numérique dans un rapport du Haut-Commissariat aux droits de l’homme (2018)3. Il a été souligné que les technologies numériques, mises au point principalement par le secteur privé, en exploitant en permanence les données personnelles, « pénètrent progressivement dans le tissu social, culturel, économique et politique des sociétés modernes ». Le rapport mettait également en garde contre l’émergence de cet « environnement numérique intrusif dans lequel les États et les entreprises commerciales seront en mesure de surveiller, d’analyser, de prédire et même de manipuler le comportement des personnes à un degré sans précédent » (§ 1).Or, le capitalisme de surveillance s’est développé en l’absence d’un cadre juridique contraignant et dans l’incertitude des obligations à la charge des entreprises opérant dans le domaine numérique.En ce qui concerne la responsabilité des entreprises de respecter le droit à la vie privée, le rapport recommandait aux États de se doter d’une législation adéquate et de mettre en place des autorités indépendantes en charge de surveiller les pratiques des secteurs public et privé, tout en leur accordant un pouvoir d’enquête sur les atteintes, la possibilité de recevoir des plaintes des particuliers ou d’organisations et d’imposer des amendes et d’autres sanctions effectives en cas de traitement illégal des données à caractère personnel (§ 61, points b), d) et e)). Or, c’est précisément à l’égard de l’adoption de telles mesures que les États peinent à suivre le rythme effréné des innovations numériques et technologiques. Face aux lacunes du droit et à la lenteur des réformes législatives, les entreprises privées se trouvent investies d’un pouvoir démesuré, en l’absence d’une régulation stricte et d’un réel mécanisme de sanction en cas de violations des droits de la personne, dans un monde dématérialisé où la logique du profit, combinée à celle de la liberté numérique, ne connaissent aucune limite. Dans une résolution adoptée le 7 octobre 2019, le Conseil des droits de l’homme des Nations Unies a réitéré les engagements des États et des entreprises en ce qui concerne le respect des droits de la personne dans le contexte de la collecte, du stockage, de l’utilisation, du partage et du traitement des données personnelles (§ 6 et § 8)4. Le plus récent rapport du Haut-Commissariat des Nations Unies aux droits de l’homme était consacré à l’« Incidence des nouvelles technologies sur la promotion et la protection des droits de l’homme dans le contexte des rassemblements, y compris des manifestations pacifiques » (2020)5. En effet, l’impact des nouvelles technologies dépasse le cadre de la protection de la vie privée en ayant aussi des répercussions sur le droit de réunion pacifique et la liberté de manifester, notamment lorsqu’il est question des systèmes de reconnaissance faciale exploités par les entreprises privées et qui sont utilisés pour surveiller les activités des acteurs de la société civile (§ 39). Ce sont ainsi les fondements de la démocratie et les principes de l’État de droit qui peuvent être impactés par l’exploitation des données personnelles, comme cela a pu être le cas avec la société Cambridge Analytica qui a procédé à la collecte des données personnelles des utilisateurs de Facebook et utilisées à des fins politiques pour influencer l’issue des élections6.
Face aux lacunes du droit et à la lenteur des réformes législatives, les entreprises privées se trouvent investies d’un pouvoir démesuré, en l’absence d’une régulation stricte et d’un réel mécanisme de sanction en cas de violations des droits de la personne, dans un monde dématérialisé où la logique du profit, combinée à celle de la liberté numérique, ne connaissent aucune limite.
De multiples défis
Même en l’absence d’un instrument juridique contraignant destiné à réguler le capitalisme de surveillance, les principes protecteurs du droit international des droits de la personne sont susceptibles de contraindre les entreprises privées à se conformer à des standards minimums en matière d’exploitation des données personnelles. Les défis persistants et les difficultés qui paraissent incontournables découlent principalement de l’exploitation des données personnelles dans un environnement dématérialisé. Dans ce cadre, l’identification d’un dommage demeure extrêmement complexe et l’engagement de la responsabilité des acteurs privés très largement hypothétique. Le décalage entre la rapidité des progrès technologiques et la lenteur de la réactualisation de l’encadrement juridique dans les ordres juridiques internes des États a entraîné l’émergence d’une économie de surveillance dans laquelle les données personnelles des utilisateurs sont la monnaie d’échange et la source infinie de profit pour les entreprises privées qui peuvent agir parfois en toute impunité. Si ces entreprises sont tenues de respecter les droits humains dans le cadre de leurs activités, de leur toute-puissance numérique découle l’incapacité des États à les contraindre au respect de leurs obligations en engageant leur responsabilité assortie de véritables sanctions. Ce constat sera vrai aussi longtemps que les cadres juridiques nationaux ne seront pas dotés de mesures législatives appropriées et que les autorités étatiques ne seront pas habilitées à exercer un véritable pouvoir de contrôle de nature à imposer des limites et à contraindre les entreprises privées à une utilisation des données personnelles conforme aux garanties qui s’attachent aux droits et libertés.Les défis persistants et les difficultés qui paraissent incontournables découlent principalement de l’exploitation des données personnelles dans un environnement dématérialisé.
Vers un premier traité international
Le défi majeur réside dans la capacité des États à imposer, isolément, un encadrement juridique aux acteurs privés qui reposerait uniquement sur le droit interne, alors même que le multilatéralisme et la coopération globale semblent incontournables afin de répondre adéquatement à cette problématique. Si un traité international véritablement contraignant serait plus approprié, il serait nécessaire que les négociations aboutissent tout d’abord et qu’il recueille un nombre suffisant de ratifications de la part des États qui s’engageraient à une mise en application effective au niveau national grâce à la modification de leur cadre législatif. Dans le cadre du Conseil de l’Europe, des négociations devraient commencer au mois de mai 2022 en vue d’aboutir à l’adoption d’un texte contraignant sur l’intelligence artificielle7. Il s’agirait du premier traité international, mais si le texte venait à être adopté, il pourrait réunir au maximum 46 États (à la suite de la récente exclusion de la Russie du Conseil de l’Europe qui sera effective en septembre 2022). Parallèlement, un projet de règlement sur l’intelligence artificielle8 a été proposé par la Commission dans le cadre de l’Union européenne en avril 2021. Il faudra suivre les développements de ce processus, qui pourrait aboutir à une législation harmonisée sur l’intelligence artificielle et qui serait immédiatement applicable dans les 26 États membres de l’Union. En ce qui concerne les Nations Unies, si des négociations n’ont pas encore été initiées en vue de l’adoption d’un texte contraignant, un moratoire a été demandé sur l’utilisation de certains systèmes d’intelligence artificielle9 face aux risques de violations graves des droits de la personne. Dans le cadre de l’UNESCO, la première norme mondiale sur l’éthique de l’intelligence artificielle a été adoptée par 193 États au mois de novembre 202110. Bien qu’il ne s’agisse pas d’un texte ayant une force obligatoire, les États ont une responsabilité de principe dans la mise en œuvre des recommandations. Ainsi, pour l’instant, au niveau universel, des instruments de droit souple (soft law) définissent des principes qui ne sont pas juridiquement contraignants, mais qui pourraient servir de guide aux autorités nationales dans la détermination de mécanismes de protection et la réactualisation des législations.- En ligne : https://www.monde-diplomatique.fr/2019/01/ZUBOFF/59443
- En ligne : https://www.lapresse.ca/societe/2020-12-06/notre-droit-au-temps-futur.php
- En ligne : https://www.ohchr.org/fr/calls-for-input/reports/2018/report-right-privacy-digital-age
- En ligne : https://documents-dds-ny.un.org/doc/UNDOC/GEN/G19/297/53/PDF/G1929753.pdf?OpenElement
- En ligne : https://www.ohchr.orghttp://www.ohchr.org/fr/documents/thematic-reports/ahrc4424-impact-new-technologies-promotion-and-protection-human-rights
- En ligne : https://ici.radio-canada.ca/nouvelle/1090159/facebook-cambridge-analytica-donnees-personnelles-election-politique-campagne- marketing-politique
- En ligne : https://justice.legibase.fr/actualites/veille-juridique/actualite-de- la-regulation-internationale-de-lintelligence-artificielle-123050
- En ligne : https://eur-lex.europa.eu/legal-content/FR/ ALL/?uri=CELEX:52021PC0206
- En ligne : https://news.un.org/fr/story/2021/09/1103762
- En ligne : https://news.un.org/fr/story/2021/11/1109412
L’article À la lumière du droit international des droits de la personne est apparu en premier sur Ligue des droits et libertés.

Quelle place pour le droit de dire non à l’intelligence artificielle ?
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Entrevue avec Fatima Gabriela Salazar Gomez par Lynda Khelil, responsable de la mobilisation à la Ligue des droits et libertés Fatima Gabriela Salazar Gomez a été coordonnatrice à l’Agora Lab et chargée à la mobilisation pour une consultation internationale organisée en 2020 par l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), Dialogue International sur l’Éthique de l’IA et une consultation pancanadienne organisée en 2021 par le gouvernement du Canada, Dialogue ouvert : l’IA au Canada. Elle est actuellement chargée de projet à Hoodstock, une organisation basée à Montréal-Nord qui œuvre pour la justice sociale et l’élimination des inégalités systémiques. LDL : Peux-tu nous parler de la consultation publique sur l’IA du gouvernement du Canada en 2021? Quels étaient les objectifs et quels constats as-tu faits? En mai 2019, le ministre fédéral de l’Innovation, des Sciences et de l’Industrie a créé un Conseil consultatif en matière d’intelligence artificielle. Ce dernier a ensuite mis sur pied en janvier 2020 un Groupe de travail sur la sensibilisation du public dont le mandat est « de concevoir des stratégies régionales afin de sensibiliser le public à l’IA, de favoriser la confiance du public envers l’IA et de le renseigner sur la technologie, ses utilisations possibles et les risques qui y sont associés[1] ». Le groupe de travail a tenu en avril et mai 2021 une consultation publique pancanadienne, Dialogue ouvert : l’IA au Canada, sous la forme d’ateliers virtuels. J’ai participé à l’organisation de cette consultation dans le cadre de mon travail à Agora Lab, un des partenaires de la consultation. Mes collègues et moi, devions proposer des cas d’usage, c’est- à-dire des scénarios qui mettent de l’avant des utilisations de l’IA dans des situations précises tirées de la réalité, dans les domaines notamment de la santé, de l’éducation, de la justice ou de l’environnement. Lorsque nous avons soumis nos propositions, le gouvernement nous a clairement indiqué que nos cas d’usage démontraient trop les aspects négatifs de l’IA. Or, il nous semblait essentiel de discuter de ces aspects qui sont parfois plus difficiles à identifier pour la population et moins abordés. On nous a également rappelé que la consultation portait sur ce qu’on appelle le trustworthy. Il ne fallait donc pas que le côté négatif de certains usages de l’IA ressorte trop. J’ai constaté que la consultation ne visait pas tant à montrer ce qui se fait en matière d’IA et à discuter des dangers et atteintes potentielles aux droits, mais plutôt à faire de la sensibilisation du public. C’est d’ailleurs le mandat principal du Groupe de travail. Selon moi, il s’agissait pour le gouvernement de tâter le terrain pour évaluer jusqu’où certains droits humains pourraient être bafoués sans que ça suscite de fortes réactions. Les autorités utilisent souvent les consultations publiques pour savoir ce que la population pense pour ensuite ajuster leurs discours. Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire. J’ai aussi pu faire le constat d’une forme de contrôle. Au départ, le gouvernement n’avait pas l’intention de rendre public le rapport de la consultation. Pour mes collègues et moi, ça ne faisait aucun sens qu’on fasse une consultation publique et que les données ne soient pas rendues publiques. On a donc demandé qu’il le soit. Ça m’est apparu être une forme d’utilisation de l’opinion et de la parole citoyenne à des fins politiques. Je pense que si, par exemple, toutes les personnes qui avaient participé avaient dit qu’elles étaient contre certains usages de l’IA, le gouvernement aurait été pris avec ça, d’où son intention initiale de ne pas publier le rapport. À ce jour, le rapport n’est pas encore public. J’espère qu’il le sera bientôt. LDL : Tu as utilisé l’expression trustworthy. Qu’est-ce que ça veut dire? L’expression trustworthy AI qui est utilisée par les gouvernements signifie une IA digne de confiance. La consultation publique était orientée dans cette perspective. On veut nous inciter à avoir confiance dans des systèmes d’IA, bien qu’ils comportent des biais discriminatoires avérés et peuvent avoir dans certains documents des conséquences importantes sur l’exercice de nos droits et libertés. Ce ne sont pas uniquement les algorithmes qui sont biaisés, ce sont les données elles-mêmes qui le sont. Le déficit historique de données sur certaines personnes, populations et communautés induit des biais dans les algorithmes d’IA. En tant que femme, racisée, issue de l’immigration, j’ai déjà de la difficulté à avoir confiance en nos propres institutions, donc comment penser que je pourrai avoir confiance d’emblée dans un système que je ne comprends pas, qui possède peu de données sur ma communauté et dont les algorithmes présentent des biais intrinsèques. L’expression une IA digne de confiance opère donc selon moi une manipulation par le discours. On ne veut pas qu’il y ait trop de mots négatifs associés à l’IA. Trustworthy, c’est une expression positive. Mais ce que ça sous-tend, c’est que nous n’avons pas une IA digne de confiance actuellement ou que nous n’avons pas une IA qui suscite la confiance de la population. Mais le dire ainsi, c’est négatif d’un point de vue de relations publiques.LDL : En quoi l’approche de sensibilisation du public sur l’IA est problématique selon toi? Et est-ce que la population a la possibilité de remettre en question certains usages de l’IA? Quand on fait de la sensibilisation, ça sous-entend selon moi qu’on n’est pas là pour faire de l’éducation. Or, faire de l’éducation sur l’IA, c’est expliquer, présenter des choix et développer un esprit critique par rapport aux systèmes d’IA. Je pense qu’il faut faire de l’éducation à l’IA pour que la population comprenne mieux ce que c’est et puisse identifier les enjeux de droits qui sont en présents. Une population plus informée sera en mesure de participer au débat public sur l’IA et de se prononcer et se mobiliser sur les développements de l’IA dans certains domaines qu’elle ne voudrait pas par exemple. Mon rêve, c’est qu’on puisse faire des ateliers d’éducation aux enjeux liés à l’IA dans des espaces communs, par exemple les bibliothèques, pour que les gens soient outillés lorsqu’ils, elles sont invité-e-s à participer à des consultations publiques. Actuellement, on est dans un paradigme où la discussion publique est orientée autour de la question « Comment atténuer les conséquences et les biais de l’IA? » avec la prémisse qu’il est bénéfique de développer et d’implanter largement des systèmes d’IA. Alors même qu’il n’y a pas d’encadrement robuste et que les lois ne sont pas adaptées au développement rapide de l’IA. Les autorités ont déjà pris la décision de développer des systèmes d’IA dans de nombreux domaines. La population n’est pas consultée et n’a pas de prise pour s’opposer à l’implantation de systèmes d’IA dans certains domaines et être entendue. Or, quand on sait que certaines utilisations de l’IA vont avoir des conséquences concrètes sur la vie des gens, par exemple dans le domaine de la justice, de l’immigration ou de l’emploi, on devrait pouvoir se poser la question « Veut-on véritablement de systèmes d’IA pour soutenir ou automatiser des prises de décisions dans ces domaines? ». C’est une question légitime et fondamentale à mon avis, d’autant plus dans un contexte pandémique où on a réalisé que nous sommes des êtres fondamentalement sociaux et que nos rapports aux autres, notre trajectoire de vie et comment on vit, ça a des impacts sur nos prises de décisions.Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire.
[1] En ligne : https://ised-isde.canada.ca/site/conseil-consultatif-intelligence-artificielle/fr/rapport-annuel-2019-2020
L’article Quelle place pour le droit de dire non à l’intelligence artificielle? est apparu en premier sur Ligue des droits et libertés.

Forces policières et capitalisme de surveillance
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Dominique Peschard, militant au comité surveillance des populations, IA et droits humains et président de la LDL de 2010 à 2015 Dans les mois suivant les attentats du 11 septembre 2001, le Pentagone, à travers son agence de recherche Defense Advanced Research Projects Agency (DARPA), mettait sur pied le projet Total Information Awareness (TIA). Dirigé par l’Amiral à la retraite John Poindexter, le projet visait, ni plus ni moins, qu’à compiler toutes les informations disponibles sur chaque individu : achats, transactions financières, lectures, sites Web fréquentés, appels téléphoniques, réseau d’ami-e-s, activités, voyages, prescriptions médicales, etc. En reliant toutes ces informations, Poindexter prétendait pouvoir identifier le prochain terroriste et l’arrêter avant qu’il ne prenne l’avion.Sécurité nationale et agences de renseignements
Le tollé qui a suivi la révélation et la dénonciation de ce programme par le New York Times a entrainé l’abolition du projet par le Congrès en 2002. Le projet n’était pas mort pour autant – il allait simplement être poursuivi secrètement par la National Security Agency (NSA). Et le développement du capitalisme de surveillance dans les deux décennies suivantes allait fournir aux agences les masses de données sur les populations dont rêvait Pointdexter. En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la NSA et l’existence d’outils, comme XKeyscore qui permet à la NSA d’avoir accès à presque tout ce qu’un-e internaute fait sur Internet, et PRISM qui donne accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube, Apple. Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada (le Centre de la sécurité des télécommunications). Depuis l’adoption du PL C-59 en 2017, le Service canadien du renseignement de sécurité (SCRS) peut légalement recueillir des ensembles de données sur les Canadien-ne-s. Il suffit que le SCRS juge ces renseignements « utiles » et qu’il ait « des motifs raisonnables de croire » qu’ils sont « accessibles au public ». Un pouvoir défini de manière aussi vague ouvre la voie à la constitution de banques de données sur l’ensemble de la population. Et ce, alors que les services policiers et de renseignements ne cessent de prétendre que les informations personnelles perdent leur caractère privé à partir du moment où elles sont accessibles dans l’espace virtuel.Forces policières et centres de surveillance
La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignements et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opération numérique qui analysent en temps réel toutes les informations disponibles pour diriger les interventions des policiers sur le terrain1. Ces centres s’inspirent des fusion centres mis en place par le Homeland Security aux États-Unis après les attentats du 11 septembre 2001. Les informations traitées proviennent autant des banques de données des services de police, que d’images de caméras de surveillance publiques et privées, et d’informations extraites des réseaux sociaux par des logiciels conçus à cette fin. Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.
Systèmes de décisions automatisées et maintien de l’ordre prédictif
Les forces policières ont de plus en plus recours à des systèmes de décisions automatisées (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire, ou les individus susceptibles d’en commettre. Ces systèmes sont particulièrement d’espaces privés pour socialiser. En ciblant ces quartiers, on arrête des personnes pour des infractions qui passent inaperçues dans des quartiers plus favorisés. Le SDA est alimenté de données qui renforcent un biais répressif envers certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes, « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincu que nos outils sont non seulement scientifiques, mais également justes2 ». Les quartiers pauvres sont également ceux où on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les biais racistes des SDA et des interventions policières.Le système de décisions automatisées (SDA) est alimenté de données qui renforcent un biais répressif envers certaines populations.
Le rôle des entreprises privées
Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir, qui ont des liens avec l’armée et les agences de renseignements et d’espionnage. Des compagnies, comme Stingray, fabriquent des équipements qui permettent aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usager et même d’accéder au contenu de la communication. Le logiciel Pégasus de la compagnie israélienne NSO permet même de prendre le contrôle d’un téléphone. D’autres entreprises comme Clearview AI et Amazon fournissent même les données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la vie privée du Canada a déclaré illégales les actions de Clearview AI au Canada ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC). La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Amazon héberge dans son nuage plusieurs programmes de surveillance du U.S. Departement of Homeland Security. La compagnie a une relation incestueuse avec les forces policières et les agences de renseignement, incluant le partage d’information sur ses utilisateur-trice-s et des contrats gouvernementaux confidentiels3. Aux États-Unis, le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usager-ère d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police — pour s’y soustraire l’usager-ère doit avoir recours à une procédure de désinscription (opting out), ce que beaucoup de personnes ne font pas. Plusieurs millions de ces sonnettes ont déjà été installées aux États-Unis et environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras4 — le tout sans mandat judiciaire! Bien que Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières. Avec le projet Sidewalk5, Amazon pousse l’intégration des données issues des appareils « intelligents » encore plus loin6. Avec Sidewalk, chaque appareil consacre une petite partie de sa bande passante et devient un pont dans un réseau de communication parallèle relié aux serveurs d’Amazon. Des compagnies, par exemple de vêtements connectés, peuvent choisir de devenir des partenaires d’Amazon et de rendre leurs dispositifs compatibles avec Sidewalk. Selon l’American Civil Liberties Union (ACLU), les documents d’Amazon indiquent que la politique d’utilisation des données sera la même avec Sidewalk qu’avec Ring. Pour l’ACLU, ce système est un véritable cauchemar pour les droits et libertés.Bien que le système Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières.
Le manque de transparence
Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics. Lorsque confrontées à des demandes portant sur leurs pratiques et sur les outils qu’elles utilisent, le réflexe premier des forces policières est de refuser de répondre sous prétexte qu’elles n’ont pas à dévoiler leurs méthodes d’enquête, ou de mentir, comme l’a fait initialement la GRC à propos de son utilisation de Clearview AI. Que savons-nous des outils informatiques utilisés par les forces policières pour définir leurs priorités d’intervention, organiser leurs patrouilles, et que font-ils avec les données recueillies lors d’interpellations, effectuées sans fondement légal? Quels impacts ces outils ont-ils sur les différentes formes de profilage pratiquées par les corps de police comme le Service de police de la Ville de Montréal? Les pratiques des forces policières et les outils qu’elles utilisent doivent respecter les droits reconnus dans les chartes. Ces pratiques et ces outils sont d’intérêt public et les forces policières ne doivent pas se soustraire à leur obligation de rendre des comptes en invoquant des arguments fallacieux.Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics.
Des pratiques à débattre et à encadrer
La masse de données que le capitalisme de surveillance a engendrée à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et de maintien de l’ordre prédictif. Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs. Elles contournent également l’exigence d’un mandat judiciaire pour les formes de surveillance intrusives. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier discriminatoire. Il n’est pas suffisant de savoir si les forces policières utilisent tel ou tel système de décision automatisé et à quelles fins. Les algorithmes doivent aussi être publics et soumis à un examen règlementaire indépendant permettant d’en repérer les failles et les biais. L’argument du secret commercial n’est pas recevable alors que l’utilisation de ces algorithmes soulève des enjeux de droits humains. Les tribunaux et les organismes de protection de la vie privée ont statué à maintes reprises que la protection de la vie privée ne disparait pas du moment qu’une personne se trouve dans l’espace public, qu’il soit physique ou virtuel7. Il faut cependant beaucoup plus que des décisions à la pièce, comme celle du Commissaire à la vie privée du Canada dans l’affaire Clearview AI, pour encadrer le travail policier dans ce nouvel environnement. Le cadre légal qui gouverne la police doit être mis à jour pour protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs.
- En ligne : https://breachmedia.ca/canadian-police-expanding-surveillance- powers-via-new-digital-operations-centres/
- Cathy O’Neil et Cédric Villani, Algorithmes, La bombe à retardement. Les Arenes Ed,
- ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
- En ligne : https://wtheguardian.com/commentisfree/2021/may/18/ amazon-ring-largest-civilian-surveillance-network-us
- Ne pas confondre avec le projet de quartier intelligent Sidewalk Labs de Google.
- ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
- En ligne : https://liguedesdroits.ca/droit-a-la-vie-privee-la-jurisprudence-de- la-cour-supreme/
L’article Forces policières et capitalisme de surveillance est apparu en premier sur Ligue des droits et libertés.

Le sel de la Terre
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Rémy-Paulin Twahirwa, militant abolitionniste et doctorant en sociologie à la London School of Economics« Europe pushes against me, I push back. » (Selina Thomspon, salt)
« Vous êtes le sel de la terre. Mais si le sel perd sa saveur, avec quoi la lui rendra-t-on? Il ne sert plus qu’à être jeté dehors, et foulé aux pieds par les hommes. » (Matthieu, 5 :13) Le 24 février 2022, la Russie entamait l’invasion de l’Ukraine, une étape que plusieurs avaient prédite, mais dont peu avaient correctement évaluée la proportion et la durée. Ainsi, il est estimé que, depuis le début du conflit, plus de 11 millions de personnes ont fui l’Ukraine[1] ou été forcées de se déplacer à l’intérieur de leur pays faisant du conflit la plus importante crise de refugié-e-s en Europe depuis la Deuxième Guerre mondiale. Depuis le début de l’invasion, les pays de l’Europe occidentale et leurs alliés ont déployé des efforts pour soutenir et accueillir les réfugié-e-s ukrainien-ne-s. À l’exception du mouvement Réfugiés Bienvenus qui a connu un succès mitigé en Allemagne alors que le pays a accueilli plus de 1.7 millions de demandeurs d’asile[2] entre 2015 et 2017, le vent de solidarité envers les Ukrainien-ne-s est particulièrement surprenant considérant les attitudes et discours anti-réfugiés et anti-(im)migration qui ont dominé l’espace médiatique et la scène politique en Europe depuis la fin des années 1990. Ainsi, au Royaume-Uni où je réside en ce moment, de nombreuses compagnies invitent leurs employé-e-s et/ou client-e-s à faire un don pour soutenir l’Ukraine et les Ukrainien-ne-s. De même, bon nombre de pays soutiennent militairement et économiquement les forces ukrainiennes, notamment par l’accueil de réfugié-e-s et l’adoption de sanctions économiques contre la Russie et ses oligarques. Force est de constater que le traitement des personnes réfugiées dans la présente crise n’est pas équitable. Ainsi, de nombreuses personnes non-blanches, en particulier celles d’origine africaine[3], les personnes roms[4] et celles du Moyen-Orient[5], ont dénoncé leur traitement en Ukraine et dans les pays voisins. Les témoignages font état de refoulement à la frontière[6], de détention[7] – notamment en Ukraine et en Pologne – d’abus physiques et d’insultes à caractère racial. En somme, ce que le sociologue afro-américain W. E. Du Bois appelait la ligne de couleur continue de partager la Terre, même en temps de conflits, et de classifier notre espèce entre celles et ceux dont la vie est digne d’être vécue[8] et celles et ceux voué-e-s à vivre une vie fantomatique, une demi-vie, une vie morte. De fait, en raison des rémanences du colonialisme et de l’impérialisme qui hantent encore nos sociétés, les constructions ontologiques qui structurent encore notre compréhension de l’humain et du non-humain, du vivant, du mort et du vivant-mort, transparaît dans la manière dont le réfugié blanc, qu’il soit Ukrainien ou autre, constitue pour les populations européennes et nord-américaines, le bon réfugié, celui qui, à terme, est accueilli les bras ouverts, celui dont la vie, sans être aisée, demeure envisageable et souhaitée. Dans l’ombre de ce bon réfugié, nous retrouverons ce que certains ont qualifié de vies jetables[9], à savoir ces hommes et femmes, issues en grande partie d’anciennes colonies et/ou de territoires annexés par les empires européens et américains qui finissent trop souvent sur l’autel du capitalisme dans des emplois jugés tout récemment essentiels, mais dont les conditions de travail demeurent somme toute misérables et indignes. L’indignité, la vie morte, est bien sûr combattue quotidiennement par celles et ceux qui la rejettent en protestant qu’elle n’est pas le seul horizon de leur existence. Or, ce qui importe de mettre de l’avant ici, c’est que cette condition n’est pas le résultat d’une quelconque conspiration, d’un hasard, d’une opération mystique ou magique, ou alors d’une volonté malsaine, mais bien une continuation de la manière dont la Terre a été partagée et les vies humaines, hiérarchisées.la ligne de couleur continue de partager la Terre, même en temps de conflits, et de classifier notre espèce entre celles et ceux dont la vie est digne d’être vécue et celles et ceux voué-e-s à vivre une vie fantomatique, une demi-vie, une vie morte.
Du partage de la Terre et la désignation de l’humain
En ce sens, le double standard dans l’accès au refuge met en lumière deux processus teintés par le colonialisme et l’impérialisme, à savoir le partage de la Terre et la désignation de l’humain. D’une part, le statut de réfugié, dès sa création en 1951, était un dispositif de classification des vies humaines qui excluait sciemment les personnes vivant dans les colonies et les empires. Le gouvernement britannique, par exemple, s’opposait à toute institutionnalisation des droits humains par l’Organisation des Nations Unies qui menacerait ses intérêts coloniaux et impériaux à la fin des années 1940. Ainsi, les diplomates britanniques proposaient une clause coloniale (devenue clause territoriale) permettant d’exclure les sujets (non-blancs) de la Couronne vivant dans une colonie. L’argument étant que les colonies n’étant pas à même de se gouverner elles-mêmes nécessitaient encore de la protection de l’Empire et que celui-ci assurerait leur bien-être. Le droit à l’asile, dès lors, était réellement destiné qu’à préserver la conscience des puissances européennes face à ce qu’Aimé Césaire appelait, dans son Discours sur le colonialisme, le « crime contre l’homme blanc » qu’était l’hitlérisme et la solution finale, c’est-à-dire « d’avoir appliqué à l’Europe les procédés colonialistes et dont ne se relevaient jusqu’ici que les Arabes d’Algérie, les coolies de l’Inde et les nègres d’Afrique ». Il aura fallu attendre le début de la chute des empires coloniaux européens et le cycle des indépendances pour qu’enfin, dans le droit international, soit reconnu à l’ensemble de l’humanité le statut d’être humain. Entre le début de la marchandisation et l’exploitation du corps indigène en Afrique, dans les Amériques et en Asie et le processus de décolonisation entamée après la Deuxième guerre mondiale, la désignation de l’humain est donc effectivement liée à la déshumanisation du colonisé. D’autre part, la gestion – dans le langage des bureaucrates néolibéraux – des réfugiés non-blancs issus de l’Ukraine met en évidence la manière dont la Terre a été partagée par les grandes puissances : c’est-à-dire qu’il trouve sa racine dans la frontière. Les êtres, la matière animale et végétale, la surface de la Terre comme son ventre, les eaux et l’atmosphère, tout est soumise à la ligne frontalière qui catégorise les appartenances culturelles et nationales, qui octroie les droits d’extraction, de commercialisation, de transformation et d’exploitation du vivant comme du non-vivant. L’espèce humaine, elle-même, a été soumise aux cartes et à la géographie du Colon[10]. Celui-ci fit du monde un monde de nations, de cultures, de peuples, définitivement fixés à un territoire, à un espace, une cage dont les barreaux étranglent en ce moment celles et ceux dont l’unique crime est d’être nés du mauvais côté de la frontière. Les cris, les sifflements et les grincements qui hantent nos nuits dans nos forteresse-nations, n’est nul autre celui des hommes, femmes et enfants qui rongent les fers de la frontière et contestent l’assignation à résidence.Il aura fallu attendre le début de la chute des empires coloniaux européens et le cycle des indépendances pour qu’enfin, dans le droit international, soit reconnu à l’ensemble de l’humanité le statut d’être humain.Le surgissement des Monstres « Le vieux monde se meurt, le nouveau monde tarde à apparaître et dans ce clair-obscur surgissent les monstres. », écrivait Antonio Gramsci dans Les Cahiers de prison. Or, nous voilà à nouveau (ou toujours ?) dans ce clair-obscur où les Monstres établissent leur règne funeste et sanglant. L’ordre crépusculaire du Monde s’établit avec l’érection de murs, la construction et le placement de machines à vagues[11] et l’envoi de bateaux militaires dans la fosse commune qu’est la Méditerranée pour repousser les personnes exilées, l’achat et le déploiement de technologies de traç[qu]age, bref le renforcement du fantasme sécuritaire[12]. À terme, il nous faudra bien atteindre ce qu’Octavia Butler appelle dans sa dystopie La Parabole du Semeur et La Parabole des Talents l’« âge adulte de notre espèce ». La crise ukrainienne se présente donc comme une occasion pour restructurer notre planète à partir de valeurs et de principes qui assurent à tou-te-s une vie digne d’être vécue où toutes les vies comptent réellement. Pour ce faire, il est urgent de redéfinir l’humain et ses droits pour que ces derniers ne soient pas dictés par l’appartenance à une nation, à un statut de citoyenneté ou à un territoire. Le clair-obscur n’a d’entreprise que parce qu’il précède le jour ; lutter pour faire jaillir la lumière et la vie n’a de prix que nos chaînes.
[1] En ligne : https://www.bbc.co.uk/news/world-60555472 [2] En ligne : https://www.unhcr.org/5ee200e37 [3] En ligne : https://www.nytimes.com/2022/03/01/world/europe/ukraine-refugee-discrimination.html [4] En ligne : https://www.aljazeera.com/news/2022/3/7/ukraines-roma-refugees-recount-discrimination-on-route-to-safety [5] En ligne : https://www.reuters.com/world/arab-refugees-see-double-standards-europes-embrace-ukrainians-2022-03-02/ [6] En ligne : https://www.irishtimes.com/news/world/africa/africans-trying-to-flee-ukraine-complain-of-being-blocked-and-of-racist-treatment-1.4813571 [7] En ligne : https://www.independent.co.uk/news/world/europe/ukraine-refugees-detention-international-students-b2041310.html [8] Sur ce thème, voir Judith Butler. Vie précaire: les pouvoirs du deuil et de la violence après le 11 septembre 2001. Ed. Amsterdam, 2005. [9] En ligne : https://www.historiesofviolence.com/disposablelife [10] En ligne : https://revueliberte.ca/article/1645/au-sortir-de-la-matrice-crepusculaire [11] En ligne : https://www.independent.co.uk/news/uk/politics/english-channel-crossings-wave-machine-island-b1765077.html [12] En ligne : https://liguedesdroits.ca/carnet-abolir-frontieres-fantasme-securitaire/
L’article Le sel de la Terre est apparu en premier sur Ligue des droits et libertés.

Une crise pour les démocraties
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Shoshana Zuboff, professeure émérite à la Harvard Business School et auteure de L’Âge du capitalisme de surveillance C’est avec la permission de Shoshana Zuboff et du New York Times que nous publions cette traduction du texte initialement publié le 12 novembre 2021 dans le New York Times[1]. Facebook n'est pas une entreprise quelconque. Elle a atteint le cap du billion de dollars[2] en une seule décennie en appliquant la logique de ce que j'appelle le capitalisme de surveillance — un système économique construit sur l'extraction et la manipulation secrètes des données humaines — à sa vision d’un monde interrelié. Facebook et d'autres grandes entreprises du capitalisme de surveillance contrôlent désormais les flux de l'information et les infrastructures de communication dans le monde entier. Ces infrastructures sont essentielles pour qu’une société démocratique soit possible, mais nos démocraties ont permis à ces entreprises de posséder, d'exploiter et d'arbitrer nos espaces d'information sans contraintes légales. Ceci a donné lieu à une révolution sournoise dans la manière dont l'information est produite, diffusée et son impact. Une série de révélations depuis 2016[3], appuyées par le témoignage personnel et les preuves fournies par la lanceuse d'alerte Frances Haugen[4], montrent les conséquences de cette révolution. Les démocraties libérales à travers le monde sont maintenant confrontées à la tragédie des biens non-communs. Les espaces d'information que les gens supposent être publics sont régis uniquement par des intérêts commerciaux privés en vue d’un profit maximum. Internet, en tant que marché autoréglementé, s'est révélé être un échec. Le capitalisme de surveillance laisse dans son sillage une traînée de dégâts sociaux : la destruction massive de la vie privée, l'augmentation des inégalités sociales, l'empoisonnement du discours public par des informations non factuelles, la démolition des normes sociales et l'affaiblissement des institutions démocratiques.
Le capitalisme de surveillance laisse dans son sillage une traînée de dégâts sociaux : la destruction massive de la vie privée, l'augmentation des inégalités sociales, l'empoisonnement du discours public par des informations non factuelles, la démolition des normes sociales et l'affaiblissement des institutions démocratiques.
Recherche et saisie
Facebook, tel que nous le connaissons aujourd'hui, a été façonné à partir de la côte de Google. L'entreprise de Mark Zuckerberg n'a pas inventé le capitalisme de surveillance. Google l'a fait. En 2000, alors que seulement 25 % des informations mondiales étaient stockées numériquement[5], Google était une petite entreprise avec un excellent produit de recherche, mais peu de revenus. En 2001, pendant l'éclatement de la bulle technologique, les dirigeants de Google ont fait une percée avec une série d'inventions qui allaient transformer la publicité. Leur équipe a appris à combiner des flux massifs de données et d'informations personnelles avec des analyses informatiques avancées pour prédire où une publicité devrait être placée pour obtenir un maximum de clics. Au début, les prédictions étaient calculées en analysant les traces de données que les utilisateur-trice-s laissaient sur les serveurs de l'entreprise sans le savoir lorsqu'ils effectuaient des recherches et parcouraient des pages de Google. Les scientifiques de Google ont appris à extraire des métadonnées prédictives de ces traces numériques et à les utiliser pour analyser des modèles probables de comportement futur. La prédiction était le premier impératif qui déterminait le deuxième impératif : l'extraction. Les prédictions lucratives nécessitaient des flux de données humaines à une échelle inimaginable. Les utilisateur-trice-s ne se doutaient pas que leurs données étaient secrètement recherchées et capturées dans tous les recoins de l'Internet et, plus tard, dans les applications, les téléphones intelligents, les appareils, les appareils photo et les capteurs. L'ignorance des utilisateur-trice-s était considérée comme étant essentielle à la réussite. Chaque nouveau produit était un moyen d'accroître l'engagement, un euphémisme utilisé pour dissimuler des opérations illicites d'extraction. À la question « Qu'est-ce que Google? », le cofondateur Larry Page a expliqué en 2001, dans un récit détaillé de Douglas Edwards, premier responsable de la marque Google, dans son livre I'm Feeling Lucky: « Le stockage est bon marché. Les appareils photo sont bon marché. Les gens généreront d'énormes quantités de données », a déclaré M. Page. « Tout ce que vous avez déjà entendu, vu ou vécu deviendra consultable. Votre vie entière sera consultable ». Plutôt que de faire payer la recherche aux utilisateur-trice-s, Google a survécu en transformant son moteur de recherche en un moyen de surveillance sophistiqué pour saisir des données humaines. Les dirigeant-e-s de l'entreprise ont travaillé pour maintenir ces opérations économiques secrètes, dissimulées aux utilisateur-trice-s, aux législateur-trice-s et aux concurrents. M. Page s'est opposé à tout ce qui pouvait « agiter l'enjeu de la vie privée et mettre en danger notre capacité de collecter des données », a écrit M. Edwards.L'ignorance des utilisateur-trice-s était considérée comme étant essentielle à la réussite. Chaque nouveau produit était un moyen d'accroître l'engagement, un euphémisme utilisé pour dissimuler des opérations illicites d'extraction.Les opérations d'extraction à grande échelle ont été le fondement du nouvel édifice économique et ont supplanté d'autres considérations, à commencer par la qualité de l'information, car dans la logique du capitalisme de surveillance, l'intégrité de l'information n'est pas la source des revenus.

Facebook, le premier disciple
Zuckerberg a commencé sa carrière d'entrepreneur en 2003, alors qu'il était étudiant à Harvard. Son site Web, Facemash, invitait les visiteurs à évaluer l'attractivité d'autres étudiants. Il a rapidement suscité l'indignation de ses pairs et le site a été fermé. Puis vinrent TheFacebook en 2004 et Facebook en 2005[8], quand M. Zuckerberg a attiré ses premiers investisseurs professionnels. Le nombre d'utilisateurs de Facebook a rapidement augmenté, mais pas ses revenus. Comme Google quelques années plus tôt, M. Zuckerberg ne pouvait pas transformer la popularité en profit. Au lieu de cela, il est allé de gaffe en gaffe[9]. Ses violations flagrantes des attentes des utilisateur-trice-s en matière de confidentialité ont provoqué une intense réaction du public[10], des pétitions et des actions collectives. M. Zuckerberg semblait comprendre que la réponse à ses problèmes se trouvait dans l'extraction de données humaines, sans consentement, au profit des annonceurs, mais les complexités de cette nouvelle logique lui échappaient. Il s'est tourné vers Google pour obtenir des réponses. En mars 2008, M. Zuckerberg a embauché la directrice de la publicité en ligne de Google, Sheryl Sandberg[11], comme bras droit. Mme Sandberg avait rejoint Google en 2001 et jouait un rôle clé dans la révolution du capitalisme de surveillance. Elle a dirigé[12] la mise en place du moteur publicitaire de Google, AdWords, et de son programme AdSense, qui ont généré ensemble la majeure partie des 16,6 milliards de dollars de revenus de l'entreprise en 2007. Multimillionnaire chez Google au moment où elle a rencontré M. Zuckerberg, Mme Sandberg avait une appréciation avisée des immenses opportunités de Facebook pour l'extraction de riches données prédictives. « Nous avons de meilleures informations que quiconque. Nous connaissons le sexe, l'âge, l'emplacement, et ce sont des données réelles, contrairement à ce que les autres déduisent », a expliqué Mme Sandberg, selon David Kirkpatrick dans The Facebook Effect. L'entreprise avait de meilleures données et des données réelles parce qu'elle était au premier rang de ce que M. Page avait appelé votre vie entière. Facebook a ouvert la voie à l'économie de la surveillance en adoptant de nouvelles politiques de confidentialité à la fin de 2009. L'organisation Electronic Frontier Foundation[13] a averti que les nouveaux paramètres tout le monde éliminaient les options qui restreignaient la visibilité des données personnelles, les traitant plutôt comme étant des informations accessibles au public. TechCrunch[14] a résumé la stratégie de l'entreprise : « Facebook oblige les utilisateur-trice-s à choisir leurs nouvelles options de confidentialité pour promouvoir la nouvelle option tout le monde et pour se dédouaner de tout méfait potentiel à l'avenir. En cas de contrecoup important contre le réseau social, il peut prétendre que les utilisateur-trice-s ont volontairement fait le choix de partager leurs informations avec tout le monde ». Quelques semaines plus tard, M. Zuckerberg a défendu ces décisions[15] auprès d'un intervieweur de TechCrunch. « Plusieurs entreprises seraient piégées par les conventions et leurs héritages. Nous avons décidé ce que seraient les normes sociales désormais et nous avons foncé », s'est-il vanté. Zuckerberg a juste foncé parce qu'il n'y avait pas de lois pour l'empêcher de se joindre à Google dans la destruction totale de la vie privée. Si les législateur-trice-s voulaient le sanctionner en tant qu'impitoyable et insatiable profiteur, prêt à utiliser son réseau social contre la société, alors les années 2009 et 2010 auraient été le bon moment de le faire.Un ordre économique déferlant
Facebook a été le premier disciple, mais pas le dernier. Google, Facebook, Amazon, Microsoft et Apple sont des empires de surveillance privée, chacun avec des modèles commerciaux distincts. Google et Facebook sont des entreprises de données et de surveillance capitaliste à l’état pur. Les autres opèrent dans d’autres secteurs d’affaires, par exemple, le secteur des données, des services, des logiciels et des produits physiques. En 2021, ces cinq géants américains de la technologie représentent cinq des six plus grandes entreprises[16] cotées en bourse dans le monde. À l’aube de la troisième décennie du 21e siècle, le capitalisme de surveillance est l'institution économique dominante de notre époque. En l'absence de lois pour le contrebalancer, ce système gère presque tous les aspects de l'activité humaine dans le monde numérique. Les bénéfices de la surveillance propulsent maintenant l'économie de la surveillance dans l'économie normale, soit celle de l'assurance, du commerce de détail, du secteur bancaire et de la finance, de l'agriculture, de l'automobile, de l'éducation, des soins de santé et plus. Aujourd'hui, toutes les applications et tous les logiciels, aussi anodins qu'ils puissent sembler, sont conçus pour maximiser la collecte de données. Historiquement, de grandes concentrations de pouvoir corporatif ont été associées à des préjudices économiques. Mais quand les données humaines sont la matière première et que les prédictions du comportement humain en sont le produit, alors les dommages sont sociaux plutôt qu'économiques. Le problème est que ces nouveaux dommages sont habituellement vus comme des phénomènes distincts, sans liens les uns avec les autres, ce qui les rend impossibles à résoudre. En fait, chaque étape de dommages engendre les conditions pour l'étape suivante.À l’aube de la troisième décennie du 21e siècle, le capitalisme de surveillance est l'institution économique dominante de notre époque. En l'absence de lois pour le contrebalancer, ce système gère presque tous les aspects de l'activité humaine dans le monde numérique.Tout commence par l'extraction. Pour un ordre économique basé sur l'extraction de données humaines, à grande échelle et de manière cachée, la destruction de la vie privée est une condition inéluctable de ses opérations commerciales. Une fois la vie privée mise au rancart, ces données humaines mal acquises sont concentrées dans les entreprises privées, où elles sont considérées comme des actifs d'affaires à déployer à volonté. L'effet social est une nouvelle forme d'inégalité, reflétée par l'asymétrie colossale entre ce que ces entreprises savent de nous et ce que nous savons d'elles. L'ampleur de cette asymétrie est illustrée dans un document de Facebook coulé en 2018[17], qui décrit son centre d'intelligence artificielle comme ingérant des billions de points de données comportementales chaque jour et produisant six millions de prédictions comportementales chaque seconde. Ensuite, ces données humaines sont transformées en armes, sous forme d'algorithmes de ciblage conçus de manière à maximiser l'extraction, ces algorithmes sont alors retournés contre les sources humaines de ces données, sans qu’elles s’en doutent afin d’accroître leur engagement. Les mécanismes de ciblage ont un impact dans la vraie vie, parfois avec de graves conséquences. Par exemple, selon les Facebook Files[18], M. Zuckerberg utilise ses algorithmes pour renforcer ou perturber le comportement de milliards de personnes. La colère est récompensée ou ignorée. Les reportages journalistiques deviennent plus fiables ou déjantés. Les éditeurs prospèrent ou dépérissent. Le discours politique devient plus laid ou plus modéré. Les gens vivent ou meurent. Parfois, le brouillard se dissipe et révèle le dommage ultime : le pouvoir croissant des géants de la technologie prêts à utiliser leur contrôle sur les infrastructures essentielles d'information afin de concurrencer les législateur-trice-s démocratiquement élu-e-s pour la domination de la société. Au début de la pandémie, par exemple, Apple et Google[19] ont refusé d'adapter leurs systèmes d'exploitation pour héberger des applications de recherche des contacts développées par les autorités de santé publique et soutenues par des élu-e-s. En février, Facebook a fermé plusieurs de ses pages en Australie comme marque de refus de négocier[20] avec le Parlement australien au sujet des redevances pour les contenus d'information. C'est pourquoi, lorsqu'il s'agit du triomphe de la révolution du capitalisme de surveillance, ce sont les législateur-trice-s de toutes les démocraties libérales, en particulier des États-Unis, qui portent le plus lourd fardeau de responsabilité. Ils ont permis au capital privé de gouverner nos espaces d'information pendant deux décennies de croissance spectaculaire, sans aucune loi pour l'entraver. Il y a cinquante ans, l'économiste conservateur Milton Friedman[21] exhortait les cadres américains : « Il n'y a qu'une seule et unique responsabilité sociale de l'entreprise : utiliser ses ressources et s'engager dans des activités conçues pour augmenter ses profits tant qu'elles respectent les règles du jeu ». Même cette doctrine radicale n’envisageait pas la possibilité d'une absence de règles.
Parfois, le brouillard se dissipe et révèle le dommage ultime : le pouvoir croissant des géants de la technologie prêts à utiliser leur contrôle sur les infrastructures essentielles d'information afin de concurrencer les législateur-trice-s démocratiquement élu-e-s pour la domination de la société.
La contre-révolution de la démocratie
Les sociétés démocratiques déchirées par les inégalités économiques, la crise climatique, l'exclusion sociale, le racisme, les urgences de santé publique et l'affaiblissement des institutions ont un long chemin à parcourir avant d’atteindre la guérison. Nous ne pouvons pas résoudre tous nos problèmes en même temps, mais nous n'en résoudrons jamais aucun, à moins de nous rétablir le caractère sacré de l'intégrité de l'information et de la fiabilité des communications. Le fait d'abdiquer nos espaces d'information et de communication au capitalisme de surveillance est à l’origine de la métacrise de toute démocratie, car elle fait obstacle à la résolution de toutes les autres crises. Ni Google, ni Facebook, ni aucune autre entreprise dans ce nouvel ordre économique n'avait comme objectif de détruire la société, pas plus que l'industrie des combustibles fossiles n'avait comme objectif de détruire la Terre. Par contre, comme pour le réchauffement climatique, les géants de la technologie et leurs compagnons de route sont prêts à traiter leurs effets destructeurs sur les personnes et la société comme étant des dommages collatéraux, le produit malheureux, mais inévitable, d'opérations économiques parfaitement légales qui ont produit certaines des entreprises les plus riches et les plus puissantes de l'histoire du capitalisme. Où en sommes-nous aujourd’hui? La démocratie est le seul ordre institutionnel doté de l'autorité et du pouvoir légitimes pour nous faire changer de trajectoire. Si l'idéal de l'autogouvernance humaine doit survivre au siècle numérique, alors toutes les solutions pointent vers une seule solution : une contre-révolution démocratique. Mais à la place des habituelles listes d’épicerie de solutions, les législateur-trice-s doivent procéder avec une compréhension claire de l'adversaire : une hiérarchie unique des causes économiques et de leurs dommages sociaux. Nous ne pouvons pas nous débarrasser des dommages sociaux ultérieurs à moins de rendre illégaux leurs fondements économiques. Cela signifie que nous devons aller au-delà des moyens pris actuellement qui visent les conséquences, comme la modération des contenus et le contrôle des contenus illégaux. De tels remèdes ne traitent que les symptômes, sans contester la légitimité de l'extraction des données humaines, alors que celle-ci finance le contrôle privé des espaces d'information de la société. De la même manière, des solutions structurelles, telles que le démantèlement des géants de la technologie, peuvent être utiles dans certains cas, mais elles n'affectent pas les opérations économiques sous-jacentes du capitalisme de surveillance. Les débats autour de la réglementation des géants de la technologie devraient plutôt se concentrer sur les fondements de l'économie de surveillance, c'est-à-dire l'extraction secrète de données humaines à partir de domaines de la vie qui étaient autrefois considérés privés.Où en sommes-nous aujourd’hui? La démocratie est le seul ordre institutionnel doté de l'autorité et du pouvoir légitimes pour nous faire changer de trajectoire.Les solutions centrées sur la réglementation de l'extraction sont neutres. Elles ne menacent pas la liberté d'expression. Au contraire, elles libèrent le discours social et les flux de l'information de la sélection artificielle d'opérations commerciales qui visent à maximiser le profit et favorisent la corruption de l'information au détriment de son intégrité. Elles restaurent le caractère sacré des communications sociales et de l'expression individuelle. Sans extraction secrète, il n’y a pas de concentration illégitime de connaissances sur les personnes. S’il n’y a pas de concentration des connaissances, il ne peut y avoir d’algorithmes de ciblage. Sans ciblage, des entreprises ne peuvent plus contrôler et gérer les flux de l'information et le discours social, ni façonner le comportement humain pour favoriser leurs intérêts. La réglementation de l'extraction éliminerait les dividendes de la surveillance et donc les incitatifs financiers. Alors que les démocraties libérales ont commencé à relever le défi de réglementer les espaces d'information d'aujourd'hui, détenus par des intérêts privés, nous avons besoin de législateur-trice-s prêts à s'engager dans une réflexion unique autour de questions bien plus fondamentales. Comment devons-nous structurer et gouverner l'information, la connectivité et la communication dans un siècle numérique démocratique ? Quelles nouvelles chartes des droits, quels nouveaux cadres législatifs et quelles nouvelles institutions sont requis pour garantir que la collecte et l'utilisation des données servent les besoins véritables des individus et de la société? Quelles mesures protégeront les citoyens contre un pouvoir non redevable sur l'information, qu'il soit exercé par des entreprises privées ou par des gouvernements? Les démocraties libérales devraient prendre les choses en main, car elles ont le pouvoir et la légitimité pour le faire. Mais elles doivent savoir que leurs alliés et collaborateurs incluent les peuples de toutes les sociétés qui luttent contre un futur dystopique. L'entreprise qu'est Facebook peut changer de nom ou de dirigeant-e-s, mais elle ne changera pas volontairement son modèle économique. Est-ce que l'appel à réglementer Facebook dissuadera les législateur-trice-s de procéder à une remise en cause plus approfondie? Ou provoquera-t-il un sentiment d'urgence accru? Allons-nous enfin rejeter les vieilles réponses et nous libérer pour poser les nouvelles questions, en commençant par celle-ci : que faut-il faire pour que la démocratie survive au capitalisme de surveillance?
Allons-nous enfin rejeter les vieilles réponses et nous libérer pour poser les nouvelles questions, en commençant par celle-ci : que faut-il faire pour que la démocratie survive au capitalisme de surveillance?
[1] En ligne : https://www.nytimes.com/2021/11/12/opinion/facebook-privacy.html [2] En ligne : https://www.bloomberg.com/news/articles/2021-07-01/facebook-fb-reaps-1-trillion-reward-for-grow-at-any-cost-culture? [3] En ligne : https://www.propublica.org/article/facebook-doesnt-tell-users-everything-it-really-knows-about-them [4] En ligne : https://www.nytimes.com/2021/10/03/technology/whistle-blower-facebook-frances-haugen.html [5] En ligne : https://rss.onlinelibrary.wiley.com/doi/epdf/10.1111/j.1740-9713.2012.00584.x [6] En ligne : https://www.cnbc.com/2017/11/21/alphabets-eric-schmidt-why-google-can-have-trouble-ranking-truth.html [7] En ligne : https://www.youtube.com/watch?v=X3VQro6q3u0&t=5131s [8] En ligne : https://www.nytimes.com/2005/05/26/business/students-startup-draws-attention-and-13-million.html [9] En ligne : https://www.wsj.com/articles/SB120465155439210627 [10] En ligne : https://www.theguardian.com/technology/blog/2009/sep/21/facebook-privacy [11] En ligne : https://money.cnn.com/2008/04/11/technology/facebook_sandberg.fortune/ [12] En ligne : https://www.nytimes.com/2008/03/04/technology/04cnd-facebook.html [13] En ligne : https://www.eff.org/deeplinks/2009/12/facebooks-new-privacy-changes-good-bad-and-ugly [14] En ligne : https://tcrn.ch/3NeZLgI [15] En ligne : https://archive.nytimes.com/www.nytimes.com/external/readwriteweb/2010/01/10/10readwriteweb-facebooks-zuckerberg-says-the-age-of-privac-82963.html [16] En ligne : https://www.visualcapitalist.com/the-biggest-companies-in-the-world-in-2021/ [17] En ligne : https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ [18] En ligne : https://www.wsj.com/articles/the-facebook-files-11631713039 [19] En ligne : https://www.politico.eu/article/google-apple-coronavirus-app-privacy-uk-france-germany/ [20] En ligne : https://www.ft.com/content/cac1ff54-b976-4ae4-b810-46c29ab26096 [21] En ligne : https://www.nytimes.com/1970/09/13/archives/a-friedman-doctrine-the-social-responsibility-of-business-is-to.html
L’article Une crise pour les démocraties est apparu en premier sur Ligue des droits et libertés.

Lancement – Revue Le capitalisme de surveillance
L’article Lancement – Revue Le capitalisme de surveillance est apparu en premier sur Ligue des droits et libertés.

Pour une lucidité collective vis-à-vis des GAFAM
Retour à la table des matières
Revue Droits et libertés, printemps / été 2022
Delphine Gauthier-Boiteau, avocate criminaliste et candidate à la maîtrise en droit et société à l’UQÀM
Tandis que les Google, Apple, Facebook (Meta), Amazon et Microsoft (GAFAM1) aimeraient se passer de toute réglementation et de cadre juridique et qu’ils défient constamment l’autorité des États, Alain Saulnier nous incite ici à prendre part à une mobilisation et une action collective pour faire face à ces entreprises privées. Dans ce plaidoyer pour le bien commun et la responsabilisation des instances concernées, l’auteur nous force à comprendre le caractère transversal de la menace que représentent ces géants.

Cet essai fouillé et percutant rend compréhensibles plusieurs des enjeux soulevés par la prolifération et l’accroissement des géants numériques, et il illustre la mesure de l’influence de ceux-ci sur les différentes sphères de notre société qu’ils traversent. Plus particulièrement, Alain Saulnier y appelle à une prise de conscience et à une mobilisation collective vis-à-vis des GAFAM, lesquelles s’avèrent nécessaires pour forcer une responsabilisation et une prise d’action concrète des structures gouvernementales. Force est de constater que sans l’implication de ces organisations, il parait illusoire de penser rétablir le rapport de pouvoir foncièrement inégal qui caractérise notre relation avec ces géants.
Il importe donc notamment que nos gouvernant-e-s actualisent les conditions règlementaires dans lesquelles nous permettons à ces entreprises d’évoluer, ce qui implique a priori de reconnaître ces géants numériques pour ce qu’ils sont, c’est-à-dire une menace transversale et face à laquelle nous nous trouvons en situation de dépendance (laquelle n’a pu que s’accentuer et se cristalliser par la pandémie de la COVID-19).
D’abord, le libéralisme et le laisser-faire qui caractérisent la posture de plusieurs États (sinon tous) à travers le monde permettent à ces superpuissances de cumuler une richesse inégalée dans l’Histoire, tout en bénéficiant d’évitement fiscal et de taux d’imposition dérisoires. L’auteur illustre ainsi comment ces géants en viennent à représenter une menace au rôle et à la définition de l’État, alors que la mondialisation numérique emporte une interdépendance économique, culturelle et sociale à la fois inégalée et inégalitaire (sur le plan de la souveraineté des États qui peut en découler).
En outre, l’impérialisme américain véhiculé par le biais de ces plateformes numériques porte aussi atteinte à notre spécificité et à notre patrimoine culturel, tandis que les artistes et le contenu culturel francophones et/ou issus des Premières Nations ou métis occupent une place bien réduite dans l’espace culturel et parmi l’offre de contenu mise de l’avant par ces géants.
L’auteur illustre ainsi comment ces géants en viennent à représenter une menace au rôle et à la définition de l’État, alors que la mondialisation numérique emporte une interdépendance économique, culturelle et sociale à la fois inégalée et inégalitaire (sur le plan de la souveraineté des États qui peut en découler).
Tout cela s’accompagne de la difficulté des médias traditionnels à offrir des plateformes ou une offre de contenus comparables, notamment en raison du retard à agir qu’accuse le Conseil de la radiodiffusion et des télécommunications (CRTC), du caractère vétuste de Loi sur la radiodiffusion et de la Loi sur les droits d’auteur, qui se révèle dépassé par l’avènement desdites plateformes2. Alors que d’une part, ces nouveaux médias peuvent agir sans grande contrainte, d’autre part, les médias traditionnels (notamment locaux et/ ou publics) ne peuvent que pâtir de cet indubitable laisser-faire. Par ailleurs, il va sans dire que l’importance d’agir est redoublée, tandis que la désinformation et la propagation de fausses nouvelles par ces plateformes n’ont jamais été aussi visibles que dans le contexte de la pandémie que nous traversons. Pour l’auteur, il importe de repenser la forme des médias et de recentrer la mission de ces derniers qui doivent « se démarquer de la désinformation » ambiante, notamment par des pratiques de gouvernance transparentes et l’indépendance journalistique.
Ensuite, contrairement à ce que l’on pourrait penser, plateforme numérique ou virtuelle ne rime pas avec faible empreinte écologique et à ce titre les GAFAM (tant les installations que les structures sur lesquelles ils reposent) représentent une véritable catastrophe sur le plan écologique alors qu’internet est en voie de devenir la première source mondiale de pollution et que le numérique consomme pas moins de 10 à 15% de l’électricité mondiale.
Et enfin, si les enjeux de surveillance, de collecte et de monétisation des données personnelles des utilisatrices et utilisateurs des plateformes participent à un capitalisme de surveillance3 qui devrait tous nous inquiéter, il appert, au passage, pertinent de mentionner que les personnes judiciarisées (notamment en matières criminelle et carcérale, mais pas uniquement) sont dorénavant exposées à un système judiciaire qui mobilise de plus en plus, et à différents niveaux, ces plateformes et les outils qui en découlent ou qui s’y rapportent4.
Le déséquilibre de pouvoir à l’œuvre ne pourra être rétabli que si les gouvernements et les gouvernant-e-s mettent un terme à leur complaisance, adaptent leurs pratiques et réagissent promptement aux développements de ces géants. Seules une action concertée et la mobilisation d’acteurs sur le plan international permettront d’opposer une résistance efficace à ces forces hégémoniques.
Ce plaidoyer pour le bien commun et la mobilisation des instances concernées permet également de saisir l’ampleur de la menace actuelle, mais aussi de celle qui se profile à l’horizon. Alors qu’Amazon s’infiltre maintenant dans nos universités, qu’il contracte avec le gouvernement du Québec et que les partis politiques ont recours à nos données personnelles (fournies par ces plateformes) pour influencer les élections, il devient tous les jours un peu plus urgent d’opposer une résistance à ces géants numériques pour lesquels, comme le dit Saulnier, l’univers est à conquérir et les frontières n’existent pas.
Seules une action concertée et la mobilisation d’acteurs sur le plan international permettront d’opposer une résistance efficace à ces forces hégémoniques.
Trop peu de personnes semblent saisir l’ampleur des maux et travers suscités par ces plateformes et leur influence grandissante. Cela laisse à penser que notre relation le plus souvent volontaire et de consommation vis-à-vis des services que nous offrent ces entreprises (et qui nous lient à celles-ci) peut expliquer qu’une forme de dissonance cognitive émerge de ce rapport. La contribution à la fois déconcertante et nécessaire proposée par cet ouvrage nous incitera, il faut l’espérer, à rompre de telles attaches.
- L’acronyme GAFAM renvoie à Google-Apple-Facebook-Amazon-Microsoft, mais l’auteur renvoie dans cet ouvrage à plusieurs autres plateformes, notamment à YouTube, Netflix, Alphabet, Disney +, etc.
- À la suite de l’élection fédérale de 2021, le Gouvernement du Canada a repris l’engagement de faire adopter une Loi modifiant la Loi sur la diffusion et d’autres conséquences.
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Honfleur, Zulma Essais, 2019.
- On peut penser à l’emploi de la visioconférence par les tribunaux judiciaires qui est beaucoup plus largement répandu depuis la pandémie, mais aussi aux liens qui existent entre différents outils qui émanent de la collecte de données personnelles et la justice actuarielle (Bernard E. Harcourt, Against prediction : profiling, policing and punishing in an actuarial age, The University of Chicago Press, 2007)
L’article Pour une lucidité collective vis-à-vis des GAFAM est apparu en premier sur Ligue des droits et libertés.

Retour sur la crise au Service de police de la Ville de Québec I Profilage racial
Retour à la table des matières Revue Droits et libertés, printemps / été 2022
Maxim Fortin, coordonnateur de la Ligue des droits et libertés – Section Québec et politologue Mélina Chasles, stagiaire à la Ligue des droits et libertés – Section Québec et organisatrice communautaire Le profilage racial est l’une des formes de racisme systémique les plus fréquentes et constitue en soi une violation de droits. Pire, lorsqu’une interpellation policière tourne mal, ce profilage est souvent accompagné de violences et de brutalités qui mettent en danger la liberté, la sécurité et même la vie des personnes racisées. Nous avons pu le constater avec le cas de George Floyd aux États-Unis et avec celui de Fredy Villanueva au Québec. Depuis plusieurs décennies déjà, des voix s’élèvent partout dans le monde pour dénoncer cette forme de racisme. À l’automne 2021, un cas de profilage racial et de brutalité policière dans la Ville de Québec a relancé le débat et provoqué une polémique qui a fait de cette question un enjeu désormais central dans le dossier du vivre-ensemble. Le 28 novembre 2021, des policiers du Groupe de relations et d’intervention policière auprès de la population (GRIPP) interpellent des jeunes afro-descendants sur la Grande Allée à Québec, à la sortie des bars. Les agents interviennent dans ce qui apparaît être une dispute entre fêtards éméchés, mais, rapidement, la tension monte d’un cran : les jeunes sentent alors qu’ils sont l’objet d’une attention démesurée de la part des forces de l’ordre. Un jeune homme et une jeune femme sont violemment interpellé-e-s. Le jeune homme est immobilisé au sol et un policier lui envoie de la neige au visage… La jeune femme est elle aussi maîtrisée et immobilisée. Le jeune homme a subi des blessures. Les images de l’arrestation montrant des agents largement supérieurs en nombre rudoyant des jeunes racisé-e-s et utilisant des techniques rappelant celles qui ont causé le décès de George Floyd par arrêt respiratoire ne passent pas : leur publication sur les réseaux sociaux déclenche une salve de dénonciations. Rapidement, le nouveau maire Bruno Marchand fait part de sa volonté de faire la lumière sur cette histoire. L’affaire prend même une dimension nationale alors que le journaliste Antoine Robitaille1, l’humoriste Eddie King2 et le député fédéral Joel Lightbound3 expriment publiquement leurs préoccupations quant à ce dossier. Cinq policiers impliqués dans les événements sont suspendus et une enquête interne est déclenchée. La diffusion des images et la dénonciation des actions du Service de police de la Ville de Québec (SPVQ) ont un effet inattendu. De nouvelles images sont alors rendues publiques, montrant cette fois-ci des agents du SPVQ brutalisant des personnes blanches dans des contextes où le suspect ne représente pas une menace directe. Le 30 novembre 2021, une nouvelle vidéo est publiée sur les réseaux sociaux. On peut cette fois-ci y voir des agents du SPVQ, membres de l’escouade GRIPP, malmener et blesser un client d’un restaurant du secteur Sainte-Foy lors de son arrestation4. Une autre vidéo est publiée pendant la semaine. Celle-ci montre un client d’un bar du centre-ville se faire projeter contre un mur5. Deux autres vidéos, moins médiatisées, témoignent quant à elles du niveau d’hostilité et d’agressivité des agents du SPVQ à l’égard des citoyen-ne-s lorsqu’ils sont contrariés. C’est donc la diffusion des vidéos de ces arrestations violentes qui mettent en lumière une problématique qui s’ajoute et se lie à celle du profilage racial : la brutalité policière flagrante du SPVQ et plus particulièrement de l’escouade GRIPP.Pour la reconnaissance du profilage racial
Dans la foulée des événements, le collectif d’organisations à l’origine de la fresque publique La vie des noir-e-s compte/ Black Lives Matter Qc6, réalisée à l’été 2021, lance un appel à la mobilisation. La Ligue des droits et libertés – Section Québec, le Collectif 1629 et des groupes de la communauté afro-descendante de Québec organisent une marche le 4 décembre. Cette marche Contre le profilage racial et la brutalité policière réclame notamment la reconnaissance du profilage racial et des engagements fermes pour y mettre un terme. Le 5 décembre, le gouvernement du Québec annonce qu’une Formation pour contrer le racisme et le profilage racial et social sera mise en place pour l’ensemble des corps policiers de la province. La Ville de Québec, visiblement ébranlée par cette histoire, annonce de nouvelles mesures pour rétablir la confiance envers son service de police. Un Plan de développement pour de meilleures pratiques policières est annoncé le 9 décembre. Le SPVQ s’associe à la Chaire de recherche sur l’intégration et la gestion des diversités en emploi (CRIDE) de l’Université Laval afin d’améliorer ses compétences culturelles et se pencher sur la question des possibles biais inconscients7. Elle annonce aussi l’embauche d’un examinateur externe en la personne de Mario Bilodeau. La Ville se montre aussi ouverte à la création d’un registre des interpellations et à une révision du mandat de l’unité GRIPP8.Documenter les interpellations
La poussière est retombée au courant de l’hiver sans que les principales doléances des groupes et personnes racisées dans le dossier du profilage racial n’aient été satisfaites ou réellement entendues. La Ville de Québec et le SPVQ continuent de nier l’existence du profilage racial, sur la base d’un manque de données probantes permettant de le démontrer. Au même moment, la Ville de Québec refuse de produire des données sur l’ethnicité, l’origine ou la couleur de peau des personnes interpellées. Dans le cadre de la Semaine d’actions contre le racisme de mars 2022, les groupes antiracistes de Québec ont lancé une nouvelle mobilisation. Deux des trois revendications de cette mobilisation s’adressent directement à la Ville de Québec. Si la reconnaissance du racisme systémique par le gouvernement québécois fait toujours partie du programme, l’accent, cette année, a été mis sur la demande de documenter les interpellations faites par le SPVQ en utilisant la méthodologie développée par l’équipe de recherche dirigée par les chercheur-se-s Victor Armony, Mariam Houssaoui et Massimiliano Mulone. Précisons que c’est grâce à cette méthodologie qu’il a été démontré que, durant les dernières années, les personnes racisées ont été 2 à 3 fois9 plus interpellées à Montréal et à Repentigny10. La troisième et dernière revendication concerne la tenue d’une nouvelle consultation des groupes de la diversité ethnique et culturelle. Une marche a lieu le 27 mars.La poussière est retombée au courant de l’hiver sans que les principales doléances des groupes et personnes racisées dans le dossier du profilage racial n’aient été satisfaites ou réellement entendues.Quelques semaines avant, la Ville de Québec avait convoqué en comité plénier le SPVQ afin qu’il réponde aux questions des élu-e-s sur son travail. Loin d’avoir à se défendre ou à se justifier, le SPVQ a bénéficié de trois heures d’encensement par des membres du conseil municipal. La Ligue des droits et libertés – Section Québec et l’organisme communautaire Droit de cité11 ont d’ailleurs dénoncé haut et fort cet exercice de promotion. « Les élu-e-s de la Ville de Québec semblent préférer ignorer le sujet du profilage racial dans leurs questions posées au directeur du SPVQ. Bien que le comité plénier portait principalement sur le plan d’action mis en place à la suite des arrestations de l’automne dernier, plus de la moitié des questions posées concernait des sujets ayant pu être abordés à d’autres moments – les plaintes sur le bruit dans les rues, par exemple12». Néanmoins, certains acteurs politiques intéressés par le dossier continuent de faire pression afin d’instaurer des politiques publiques respectueuses des droits humains des personnes racisées. Le député solidaire Sol Zanetti a organisé une assemblée publique en mars sur la question du profilage racial. Plusieurs acteurs et groupes du mouvement antiraciste ont participé à la rencontre. La conseillère municipale Jackie Smith (Transition Québec), seule élue à aborder le profilage lors du comité plénier, a déposé le 21 mars dernier une proposition afin qu’une étude sur l’ethnicité, l’origine et la couleur de peau des personnes interpellées par la police soit réalisée à Québec et que cette étude utilise la méthodologie Armony13. Or, sa proposition ne fut ni appuyée par le comité exécutif ni par aucune autre personne élue du Conseil municipal; elle a donc été rejetée le 4 avril.
Néanmoins, certains acteurs politiques intéressés par le dossier continuent de faire pression afin d’instaurer des politiques publiques respectueuses des droits humains des personnes racisées.
La mobilisation pour faire pression
Que conclure de la crise au SPVQ et des mobilisations récentes contre le profilage racial? Premièrement, soulignons le manque de volonté politique de la Ville de Québec et de ses élu-e-s. Bien que sensibles à la question du racisme, les élu-e-s du Conseil municipal semblent sous-estimer la réalité du profilage racial et le degré de méfiance/défiance qu’il suscite au sein des populations racisées. Deuxièmement, la Ville de Québec semble ne pas vouloir s’opposer à ce que le SPVQ nie l’existence du profilage racial, tout en refusant de produire les données qui attesteraient de son ampleur. Troisièmement, les mobilisations contre le profilage racial ont fait en sorte que les communautés afro-descendantes de Québec sont plus mobilisées, qu’une perspective sociopolitique centrée sur la défense collective des droits et libertés émerge au sein des groupes racisés et que nous pouvons désormais construire un rapport de force avec les autorités afin de maintenir et d’accentuer la pression.- En ligne : https://www.journaldequebec.com/2021/11/30/il-sappelle- pacifique-1
- En ligne : https://www.journaldemontreal.com/2021/11/29/arrestation- musclee-de-pacifique-eddy-king-annule-des-spectacles-a-quebec
- En ligne : https://www.journaldequebec.com/2021/12/01/arrestations- musclees-a-quebec-une-enquete-externe-serait-mieux-selon-lightbound
- En ligne : https://ici.radio-canada.ca/nouvelle/1844000/enquete- independante-spvq-protofino-police-quebec-intervenation-arrestation
- En ligne : https://ici.radio-canada.ca/nouvelle/1844406/quatrieme-video- spvq-crise-interventions-musclees-district-saint-joseph
- En ligne : https://www.journaldequebec.com/2021/08/16/black-lives- matter-une-fresque-inauguree-dans-une-rue-de-quebec
- En ligne : https://www.ledevoir.com/societe/653046/le-spvq-se-penchera- sur-ses-possibles-biais-inconscients
- Ibid.
- En ligne : https://spvm.qc.ca/upload/Rapport_Armony-Hassaoui-Mulone.pdf En ligne : https://cridaq.uqam.ca/wp-content/uploads/2021/09/Rapport- Armony-Hassaoui-Mulone-SPVR.pdf
- À Montréal, les personnes noires, autochtones et arabes avaient respective- ment 4,2 fois, 4,6 fois et 2 fois plus de chances d’être interpellées que les per- sonnes blanches, selon le À Repentigny, les personnes noires avaient 2,5 à 3 fois plus de chance d’être interpellées que les personnes blanches.
- En ligne : https://www.lesoleil.com/2022/03/06/un-exercice-dautopromotion-qui-fait-fi-des-abus-policiers-a-legard-de-certaines-citoyenes-52d4d2b93ef3d464a4126c543c931e42
- En ligne : En ligne : http://liguedesdroitsqc.org/2022/03/comite-plenier-des-fleurs-pour-le-spvq-et-des-elu-e-s-qui-tournent-autour-du-pot/
- En ligne : https://wchttp://www.carrefourdequebec.com/2022/03/jackie-smith-veut-documenter-le-profilage-racial-a-quebec/
L’article Retour sur la crise au Service de police de la Ville de Québec I Profilage racial est apparu en premier sur Ligue des droits et libertés.