Revue Droits et libertés

Publiée deux fois par année, la revue Droits et libertés permet d’approfondir la réflexion sur différents enjeux de droits humains. Réalisée en partenariat avec la Fondation Léo-Cormier, la revue poursuit un objectif d’éducation aux droits.

Chaque numéro comporte un éditorial, les chroniques Un monde sous surveillance, Ailleurs dans le monde, Un monde de lecture, Le monde de l’environnement, Le monde de Québec, un dossier portant sur un thème spécifique (droits et handicaps, droits des personnes aînées, police, culture, droit à l’eau, profilage, mutations du travail, laïcité, etc.) ainsi qu’un ou plusieurs articles hors-dossiers qui permettent de creuser des questions d’actualité. Les articles sont rédigés principalement par des militant-e-s, des représentant-e-s de groupes sociaux ou des chercheuses ou chercheurs.

Créée il y a 40 ans, la revue était d’abord diffusée aux membres de la Ligue des droits et libertés. Depuis, son public s’est considérablement élargi et elle est distribuée dans plusieurs librairies et disponible dans certaines bibliothèques publiques.

Bonne lecture !

Des témoignages qui rendent hommage à Lucie Lemonde

4 novembre 2022, par Revue Droits et libertés

Lucie Lemonde, qui nous a quitté-e-s le 6 février 2022, a marqué d’innombrables militant-e-s des droits humains au Québec et ailleurs, d’étudiant-e-s en droit ainsi que des confrères et consoeurs universitaires et dans le monde juridique. Les témoignages de militant-e-s de la Ligue des droits et libertés, initialement publiés au printemps 2022 dans la revue Droits et libertés, nous font découvrir une femme aux multiples facettes, une femme et une militante exceptionnelle. Lire les témoignages

L’article Des témoignages qui rendent hommage à Lucie Lemonde est apparu en premier sur Ligue des droits et libertés.

Mobilisations et médias sociaux

20 octobre 2022, par Revue Droits et libertés

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Quelles opportunités et quels enjeux?

Anne-Sophie Letellier, candidate au doctorat en communications, UQÀM Normand Landry, professeur, Université TÉLUQ, titulaire de la Chaire de recherche du Canada en éducation aux médias et droits humains Les technologies numériques ont joué des rôles significatifs dans les mobilisations citoyennes des dernières décennies. À cet égard, elles sont couramment présentées comme des vecteurs de démocratisation des sociétés. Des répertoires numériques d’actions collectives se sont progressivement déployés au sein d’une société civile s’étant largement internationalisée. Ces technologies constituent désormais des architectures de militance qui favorisent l’organisation de la dissidence et de la militance politique, le partage d’information, la création collective de contenus et le contournement de la censure et des voies de communication officielles. La dernière décennie a fait état d’une pluralité de situations où les technologies numériques ont joué un rôle majeur dans des mouvements démocratiques et contestataires. Les révolutions arabes, le mouvement anti-austérité Occupy, ainsi que les nombreuses mobilisations en ligne dans le cadre de luttes environnementales et autochtones (#IdleNoMore), féministes (#MeToo, #MoiAussi) et antiracistes (#BlackLivesMatter) en sont des exemples frappants. Ainsi, à mesure que se démocratisent et se distribuent les technologies numériques au sein des sociétés, des usages et des pratiques politiques numériques se développent et se propagent. Costanza-Chock1 qualifie d’affordance les caractéristiques de design qui invitent les utilisateur-trice-s à poser certaines actions (partager, commenter, interagir avec du contenu, former des groupes, créer des événements, entretenir des communications privées, etc.) sur une interface donnée. Ces affordances masquent néanmoins des mécanismes de collecte de données excessivement efficaces, subtils, et à la base d’un modèle économique hautement profitable où s’entrecroisent des intérêts commerciaux et étatiques.

Les affordances d’une mobilisation… et de la désinformation

Des discours critiques à l’endroit des technologies numériques présentent les plateformes, les sites et les services numériques mis à la disposition du grand public comme des lieux où s’exerce une surveillance grandement facilitée et amplifiée par un modèle économique de monétisation des données personnelles, qualifié par Shoshana Zuboff (2019) de capitalisme de surveillance. Si les conséquences les plus évidentes du capitalisme de surveillance ont longtemps été réduites à une publicité trop ciblée, les risques associés à la collecte systématique et ubiquitaire des données personnelles sont désormais collectifs et touchent à l’organisation des sociétés démocratiques. Notamment, en 2018, le scandale de Cambridge Analytica a mis en lumière comment les mécanismes du microciblage publicitaire pouvaient également être mobilisés   dans un contexte électoral afin d’exposer des électeur-trice-s indécis-e-s ciblé-e-s à des campagnes de désinformation2. Plus récemment, en 2021, Frances Haugen3 a dévoilé des documents révélant que les algorithmes de classification de contenus utilisés par la plateforme de réseau social avaient contribué significativement à exacerber des troubles alimentaires chez des adolescentes, ainsi qu’à amplifier la portée de discours haineux facilitant, entre autres, le génocide des Rohingyas au Myanmar4. Dans ces deux cas, les documents fuités démontrent que la rentabilité financière de compagnies transnationales – largement attribuable au modèle d’affaires inhérent au capitalisme de surveillance – est, comme l’a souligné Haugen, ordinairement explicitement priorisée face aux enjeux éthiques, sociaux et politiques qui découlent de leurs pratiques.
[…] les algorithmes de classification de contenus utilisés par la plateforme de réseau social avaient contribué significativement à […] amplifier la portée de discours haineux facilitant, entre autres, le génocide des Rohingyas au Myanmar.

De la surveillance étatique à la montée des logiciels espions

En 2013, les révélations du lanceur d’alerte Edward Snowden ont exposé l’ampleur des pratiques de surveillance des États sur leurs citoyens. Elles ont également démontré comment, à travers un accès direct aux infrastructures physiques des réseaux – pensons au programme PRISM – ou encore à travers des ordres des tribunaux, les agences de renseignement et de sécurité américaines étaient en mesure de gagner l’accès aux données personnelles recueillies par les plus grandes entreprises du secteur du numérique. Si ces pratiques ont été largement critiquées, elles s’inscrivent néanmoins dans une tendance forte des États à surveiller les communications de leurs citoyens. Dans les pays occidentaux, la légitimation de ces pratiques de surveillance s’articule généralement à travers la promotion d’un accès légal à des données et communications personnelles et par un argumentaire présentant le bien-fondé des initiatives gouvernementales cherchant à introduire des portes dérobées dans les systèmes de chiffrement utilisés par leurs citoyens5. Si ces positions sont défendues sous le couvert de la lutte au terrorisme et à la criminalité, de nombreux cas documentés ont mis en lumière un manque d’encadrement juridique et des pratiques injustifiables de surveillance de journalistes6 et de militant-e-s7. Ces pratiques de surveillance étatique sont également alimentées par le marché en pleine expansion des logiciels espions. Ces logiciels sont officiellement développés avec cette même intention affichée publiquement de lutter contre la criminalité et le terrorisme. Lorsqu’installés sur des appareils, ces logiciels permettent de surveiller en temps réel l’ensemble des déplacements et des activités en ligne de leurs cibles. Les groupes de défense des droits humains s’évertuent depuis quelques années à documenter et à attirer l’attention sur les dérives associées à ces logiciels. Ces derniers sont couramment utilisés par des régimes autoritaires afin de surveiller des journalistes, des avocat-e-s et des militant-e-s. À terme, ces usages conduisent à des arrestations illégales et à des meurtres extrajudiciaires8.
Si ces positions sont défendues sous le couvert de la lutte au terrorisme et à la criminalité, de nombreux cas documentés ont mis en lumière un manque d’encadrement juridique et des pratiques injustifiables de surveillance de journalistes9 et de militant-e-s10.
En ce sens, l’utilisation ubiquitaire des technologies numériques, doublée des   modèles   d’affaires   basés   sur la collecte de données, crée un terreau fertile pour les pratiques de surveillance étatique. Plusieurs rapports, dont ceux du Rapporteur spécial des Nations Unies sur la liberté d’expression11, abondent dans cette direction et associent directement ces pratiques de surveillance à des atteintes portées à plusieurs droits et libertés fondamentales, dont la liberté d’expression. En somme, les affordances des technologies numériques offrent simultanément des opportunités inédites à l’organisation de mouvements sociaux démocratiques et une capacité de surveillance décuplée. Ces pratiques de surveillance font converger les intérêts des entreprises investissant le champ du numérique avec ceux des États qui régulent leurs activités ou qui constituent de potentiels clients pour leurs services de surveillance. La prise en considération de ces enjeux ne vise pas la désertion des réseaux sociaux, ou une déconnexion aux technologies numériques. À un niveau tactique, elle invite plutôt à une éducation critique12 face aux fonctionnalités de ces plateformes dans le but de déjouer – du moins partiellement – les mécanismes de collecte de données ainsi que les risques associés aux capacités de surveillance accrues des États et des compagnies privées. D’une perspective plus stratégique, cette situation appelle à d’urgentes réformes législatives et à une règlementation plus serrée des acteurs du numérique, visant notamment à accroitre leur imputabilité sur la question de la désinformation et de la protection des données personnelles.
  1. Costanza-Chock, Design justice: Community-led practices to build the worlds we need, The MIT Press, 2020.
  2. J. Bennett, D. Lyon, Data-driven elections: implications and challenges for democratic societies, Internet Policy Review, 2019, 8(4).
  3. Haugen est une ancienne employée chez Elle était chargée de diri- ger un groupe de travail contre la désinformation dans le cadre des élections américaines de 2020.
  4. En ligne : https://www.courrierinternational.com/dessin/genocide-des- rohingyas-le-mea-culpa-de-facebook
  5. Gill, T. Israel et C. Parsons, Shining a light on the encryption debate: A Canadian field guide, 2018.
  6. En ligne : https://www.lapresse.ca/actualites/justice-et-affaires- criminelles/201610/30/01-5036027-patrick-lagace-vise-par-24-mandats-de- surveillance-policiere.php
  7. A. Choudry, Activists and the surveillance state: Learning from repression,
  8. Marczak, J. Scott-Railton, S. McKune, B. Abdul Razzak et R. Deibert, HIDE AND SEEK: Tracking NSO Group’s Pegasus Spyware to operations in 45 countries, 2018
  9. Op .cit., note
  10. A. Choudry, Activists and the surveillance state: Learning from repression,Between the Lines, 2018.
  11. D. Kaye, Report on the Adverse Effect of the Surveillance Industry on Freedom of Expression, OHCHR, 2019. En ligne : https://www.ohchr.org/en/calls-for- input/reports/2019/report-adverse-effect-surveillance-industry-freedom- expression
  12. Landry, A. M. Pilote et A. M. Brunelle, L’éducation aux médias en tant que pratique militante : luttes et résistances au sein des espaces médiatiques et de gouvernance, 2017.

L’article Mobilisations et médias sociaux est apparu en premier sur Ligue des droits et libertés.

Le secteur de l’intelligence artificielle et l’embourgeoisement de Parc-Extension

7 octobre 2022, par Revue Droits et libertés
Retour à la table des matières Revue Droits et libertés, printemps / été 2022 Le Big Data contre le droit à un chez-soi? Collectif de chercheur-euse-s et militant-e-s (…)

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Le Big Data contre le droit à un chez-soi?

Collectif de chercheur-euse-s et militant-e-s Alessandra Renzi, Tamara Vukov, Emanuel Guay, Sepideh Shahamati, Yannick Baumann, Simone Chen, et Montserrat Emperador Badimon

Crédit : André Querry

Le secteur de l’intelligence artificielle (IA) occupe une place de plus en plus importante parmi les stratégies de développement économique à Montréal, notamment par le biais de partenariats entre les pouvoirs publics, le milieu de la recherche et des entreprises spécialisées dans les hautes technologies et les données massives (big data). Le gouvernement provincial a annoncé, en 2019, l’octroi de 80 millions de dollars sur cinq ans à l’Institut québécois de l’intelligence artificielle Mila, auquel s’ajoute un financement fédéral de 44 millions, par l’entremise de l’Institut canadien de recherches avancées1. Les dernières années ont aussi été marquées par l’établissement, dans le quartier Marconi- Alexandra, de compagnies telles que Element AI, Microsoft et IVADO, ainsi que par l’ouverture du Campus MIL en septembre 2019 et la mise en chantier d’un Centre d’innovation en intelligence numérique. Ces deux établissements, associés à l’Université de Montréal, visent entre autres à soutenir l’écosystème de l’IA au Québec. L’essor de Montréal comme un pôle international de l’IA est souvent présenté comme une excellente nouvelle, dont nous devrions tou-te-s nous réjouir. Des craintes ont toutefois été partagées par rapport aux risques que représente ce secteur, comme en témoigne la Déclaration de Montréal pour un développement responsable de l’intelligence articielle. Cette déclaration, promue entre autres par le professeur Yoshua Bengio, compte parmi ses principes le bien-être, la solidarité, la participation démocratique, l’équité, l’inclusion de la diversité, la responsabilité et le développement soutenable2.  

Crédit : André Querry

Nous sommes des chercheur-euse-s et des militant-e-s qui travaillent en étroite collaboration avec différentes initiatives communautaires à Parc-Extension. Ce quartier est adjacent aux nouvelles installations de l’Université de Montréal, il est situé à proximité de Marconi-Alexandra et il est caractérisé par un taux de pauvreté élevé, une proportion importante de sa population issue de l’immigration récente et un embourgeoisement qui s’accélère depuis quelques années. Nous souhaitons mettre en lumière ici l’impact du secteur de l’IA sur l’embourgeoisement de Parc-Extension, puis ses conséquences pour les locataires à faible revenu du quartier. Nous concluons notre article en proposant trois pistes de solution, soit une collaboration plus étroite entre le milieu de la recherche et les initiatives communautaires locales, l’élaboration d’une entente sur les avantages communautaires (community benets agreement) entre le secteur de l’IA et les résident-e-s des quartiers concernés, ainsi qu’une plus grande transparence de la part de ce secteur et des pouvoirs publics.

Le secteur de l’IA et l’embourgeoisement de Parc-Extension

Les recherches que nous menons à Parc-Extension, en collaboration avec des organismes locaux, nous ont permis de constater que le secteur de l’IA et les nouvelles installations de l’Université de Montréal qui leur sont associées contribuent grandement à l’embourgeoisement de Parc-Extension, ce qui correspond à des tendances observées dans d’autres villes comme New York, Los Angeles et San Francisco3. L’arrivée d’entreprises de haute technologie et de nouveaux campus universitaires favorise une hausse importante de la valeur des propriétés dans les quartiers environnants et la venue de nouvelles résidentes et de nouveaux résidents plus fortunés, y compris des personnes qui travaillent pour ces entreprises et ces universités. Cela encourage les propriétaires à augmenter de façon radicale les loyers et à effectuer des rénovictions, qui consistent en l’éviction de locataires afin de rénover un logement et d’accueillir ensuite d’autres locataires avec des revenus plus élevés. Le rapport MIL façons de se faire évincer : l’Université de Montréal et la gentrication à Parc-Extension, paru en juin 2020, a mis en lumière la réorientation du marché locatif de Parc-Extension autour des jeunes professionnel-le-s et des étudiant-e-s, qui se manifeste notamment dans les loyers offerts et les stratégies publicitaires utilisées par les propriétaires et les promoteurs immobiliers4. Un rapport produit récemment par le Digital Divides Project et le Réseau de recherche-action communautaire de Parc-Extension (CBAR) examine l’impact du secteur de l’IA sur l’embourgeoisement de Parc-Extension, ainsi que les conséquences dévastatrices de ce processus pour les locataires à faible revenu5. Ces locataires sont de plus en plus souvent obligés de se reloger, après une éviction, dans des appartements trop petits pour le nombre de personnes qui les habitent, de couper dans des dépenses essentielles comme la nourriture ou les médicaments afin de pouvoir payer des loyers plus élevés qu’auparavant, ou encore de quitter le quartier, en rendant ainsi plus difficile leur accès à différents services et réseaux de soutien. Ces réseaux et ces services sont particulièrement importants pour les résident-e-s issu-e-s de l’immigration récente, puisqu’ils ont de plus fortes probabilités d’être allophones et d’avoir un statut précaire. La manière dont l’IA se développe actuellement nuit au respect de plusieurs principes contenus dans la Déclaration de Montréal, notamment l’équité et la solidarité.

La collecte de données, les ententes sur les avantages communautaires et la transparence du secteur de l’IA et des pouvoirs publics

Bien que les réalités exposées ici soient préoccupantes, nous pensons que des solutions peuvent être mises de l’avant pour assurer une meilleure prise en compte des besoins et des aspirations des locataires de Parc-Extension. Une première avenue à envisager est l’établissement de collaborations entre des personnes issues du milieu de la recherche et des initiatives communautaires, afin d’encourager des projets et des stratégies de collecte de données qui contribuent aux luttes des résident-e-s, ainsi qu’au travail des organismes locaux. Nous avons ainsi lancé, en novembre 2021, deux cartes interactives portant sur les évictions et les mobilisations pour le droit au logement à Parc-Extension, en partenariat avec le Comité d’action de Parc-Extension (CAPE). Ces cartes visent tant à montrer l’ampleur et les conséquences de la crise du logement dans le quartier qu’à promouvoir des initiatives menées par les locataires pour contrer cette crise6. Une deuxième avenue qui mérite notre attention est l’élaboration d’une entente sur les avantages communautaires, pour s’assurer que les résident-e-s de Parc-Extension bénéficient réellement de l’expansion du secteur de l’IA, avec des offres d’emploi ciblées et des investissements dans des projets locaux, notamment dans le domaine du logement social et communautaire. Une troisième avenue à envisager est l’adoption d’une approche plus transparente par le secteur de l’IA et les pouvoirs publics. Par exemple, des projets d’IA qui sont jugés nuisibles par les communautés concernées pourraient être l’objet d’un moratoire. Ces trois avenues font partie d’un ensemble plus large de solutions qui permettraient au secteur de l’IA de reconnaître pleinement sa responsabilité sociale et d’en tirer les conséquences qui s’imposent. Les stratégies proposées ici doivent être menées en collaboration avec les résident-e-s, et les organismes de Parc-Extension, en respectant leur leadership et en encourageant leur participation tout au long du processus, notamment avec une compensation adéquate pour leur temps. Nous ne pouvons pas tolérer, en tant que société, un modèle d’innovation technologique qui externalise les coûts associés à son développement et qui affecte négativement les locataires à faible revenu, en niant ainsi leur contribution à la vie sociale et culturelle de nos quartiers et leur droit à la ville.
  1. En ligne : https://www.lapresse.ca/affaires/economie/ quebec/201901/29/01-5212755-montreal-inaugure-sa-cite-de- lintelligence-artifiphp
  2. En ligne : https://www.declarationmontreal-iaresponsable.com/la-declaration.
  3. En ligne : https://theconversation.com/universities-can-squeeze-out-low- income-residents-in-cities-like-montreal-131834
  4. Projet de cartographie anti-éviction de Parc-Extension. MIL façons de se faire évincer. L’Université de Montréal et la gentrication à Parc-Extension. Montréal, 2020, p. 15-20.
  5. Digital Divides Project et Réseau de recherche-action communautaire de Parc-Extension. The Impact of Montreal’s AI Ecosystems on Parc-Extension: Housing, Environment and Access to Montréal, 2022.
  6. Projet de cartographie anti-éviction de Parc-Extension. Cartographie. En ligne : https://antievictionmontreal.org/fr/maps/

L’article Le secteur de l’intelligence artificielle et l’embourgeoisement de Parc-Extension est apparu en premier sur Ligue des droits et libertés.

Le capitalisme de surveillance « like » la fracture numérique

22 septembre 2022, par Revue Droits et libertés
 Discriminations et exclusions Retour à la table des matières Revue Droits et libertés, printemps / été 2022 Centre de documentation en éducation des adultes et condition (…)

 Discriminations et exclusions

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Centre de documentation en éducation des adultes et condition féminine (CDÉACF) Lise Chovino, responsable de la formation et de l’accompagnement en technologies de l’information et des communications (TIC) Catherine St-Arnaud Babin, bibliothécaire de liaison

Inégalité des chances face au numérique

La fracture numérique différencie les personnes qui ont accès aux TIC de celles qui ne peuvent ou ne savent pas les utiliser. Cette fracture est notamment matérielle, financière et géographique. Elle repose aussi sur les connaissances et la confiance nécessaires pour être autonome dans le monde numérique. Pour être un-e internaute, certes, il peut suffire d’avoir accès à un appareil connecté à Internet. Cependant, pour être un-e internaute aguerri-e et autonome, il vaut mieux savoir bien lire, posséder son propre appareil, avoir une connexion haute vitesse et, surtout, avoir confiance en ses capacités de résolution de problèmes numériques. Or, ce sont des conditions qui sont rencontrées chez moins de gens qu’on ne le croie. Au Québec, l’enjeu de la littératie et de l’alphabétisation demeure crucial pour de nombreuses personnes. Des enquêtes sont régulièrement menées à ce sujet, tel que le Programme pour l’évaluation internationale des compétences des adultes (PEICA) ou des études de la Fondation pour l’alphabétisation. Or, un faible niveau de littératie entraîne souvent un faible niveau de littératie numérique. Pour naviguer en ligne, il faut pouvoir lire et trier l’information présentée dans le corps du texte, les encadrés, les menus, les images et les icônes. Pouvoir donner un sens aux consignes et des avertissements, c’est loin d’être acquis pour tout le monde. Et puis, encore faut-il avoir les moyens de se payer un appareil connecté et une bonne connexion Internet. La localisation géographique a d’ailleurs un énorme impact sur la qualité et le coût du service, comme le démontre la dernière enquête NETendances par région1. Plus on est loin, moins le service est bon et plus il est cher. Il faut également noter que les études mentionnées plus haut n’incluent même pas une analyse intersectionnelle qui nous permettrait de comprendre comment certaines parties de la population peuvent être davantage vulnérables aux conséquences de la fracture numérique, même dans les grands centres urbains. Le CDÉACF a exposé une de ces réalités dans la capsule vidéo Les inégalités numériques sont une violence faite aux femmes produite pour la Campagne 2021 des 12 jours contre les violences faites aux femmes2. De plus, la cyberadministration creuse à elle seule un grand fossé au sein de la population. Le grand virage numérique du gouvernement entraîne une dépendance structurelle aux TIC afin d’avoir accès aux services, causant un stress lié à l’obligation d’utiliser ces outils. Alors que les projets de formation à la littératie numérique sont ponctuels ou sous-financés, beaucoup d’internautes ont appris sur le tas, prises entre incertitude et crainte de commettre une bévue irréparable. Cette insécurité est un grand cadeau pour le capitalisme de surveillance : plus les internautes sont hésitant-e-s ou inexpérimenté-e-e, moins ils ou elles se prémunissent contre les tactiques de collectes de données. C’est un gain sans effort pour Google, Apple, Facebook, Amazon et Microsoft (GAFAM).
Or, un faible niveau de littératie entraîne souvent un faible niveau de littératie numérique. Pour naviguer en ligne, il faut pouvoir lire et trier l’information présentée dans le corps du texte, les encadrés, les menus, les images et les icônes.

Dire non, mais à quoi?

Comment savoir qu’on a le choix d’une option ou d’une autre? Comment savoir si on a le choix? Comment protéger ses données personnelles en toute sérénité et accorder un consentement éclairé en matière de partage de ses informations personnelles? Il est difficile de comprendre avec précision toutes les subtilités de la déconnexion et des options de confidentialité. Les politiques de confidentialité sont longues et souvent rédigées dans un jargon juridique peu intelligible. Sans compter les options de consentement offrant de faux  choix tels que : « voulez-vous enregistrer votre mot de passe? oui ou plus tard », l’ajout de mises à jour régulières qui changent les paramètres de confidentialité (exemple : Facebook qui remet par défaut les publications en mode public), ou les options de partage de données activées automatiquement. Ces pratiques faussées imposent aux utilisatrices et aux utilisateurs une vigilance quasi continuelle et peut les mener à céder face à l’insistance. Untel accepte de rester connecté, car peu familier avec les TIC, il a peur de mal faire. Une telle finit par cliquer sur oui pour sauvegarder son mot de passe parce que fatiguée de voir continuellement la fenêtre plus tard s’afficher. C’est le genre de choix qu’on nous offre. Il faut également considérer la dangerosité de ces pratiques pour des publics déjà vulnérabilisés. L’exemple des femmes vivant de la violence conjugale est éloquent. Dans ce contexte, les pratiques du capitalisme de surveillance ont non seulement un impact sur la confidentialité des informations personnelles de ces femmes, mais aussi des conséquences directes sur leur sécurité. Pensons, entre autres, aux algorithmes de recommandation de contacts sur les réseaux sociaux, au partage non sollicité de l’adresse des maisons d’hébergement sur les cartes en ligne et aux publicités ciblées envoyées à l’entourage selon les activités en ligne. Les conséquences de ces bris de confidentialité peuvent être sans retour.
[…] les pratiques du capitalisme de surveillance ont non seulement un impact sur la confidentialité des informations personnelles de ces femmes [victimes de violence conjugale], mais aussi des conséquences directes sur leur sécurité.

Fardeau individuel ou action collective

Bien que la population générale ait besoin de sensibilisation, de formation et de soutien au sujet des TIC, il est capital de créer un cadre politique et commercial permettant de s’épanouir avec ces technologies et de les choisir sciemment. Malgré leur bonne volonté, les personnes qui parviennent à se former se confrontent au rythme d’évolution des TIC et des pratiques de confidentialité et de sécurité. Le fardeau individuel est pratiquement insoutenable, car il faut sans cesse réviser ses connaissances des paramètres de chaque outil. Sans parler des barrières structurelles et systémiques ayant un impact direct sur la possibilité d’acquérir les outils et les savoirs technologiques nécessaires à son autonomie. D’ailleurs, une perspective plus globale sur les aspects éthiques entourant les pratiques du capitalisme numérique permet de constater que les décisions prises par les GAFAM et par les pouvoirs publics ont aussi un impact sur la marge de manœuvre des individus. Malgré les failles actuelles et toujours non résolues présentées plus haut, il semble se dessiner une volonté institutionnelle et économique d’entreprendre au plus vite un nouveau virage numérique qui systématise le recours à la collecte massive de données et à l’intelligence artificielle. Pour obtenir ces données, nous voyons les bailleurs de fonds orienter le financement des projets et embrasser cette voie sous couvert de célébrer les données ouvertes. Cependant, encore une fois, qui saura faire la part des choses entre le partage d’informations et la protection de la confidentialité des données personnelles? Dans ce contexte, reporter entièrement le fardeau de la protection de ces données sur les utilisatrices et les utilisateurs a peu de chances d’aboutir à une véritable souveraineté sur nos données, en plus de renforcer l’isolement et les risques encourus par les populations déjà vulnérabilisées. Sans changement structurel et systémique, les initiatives individuelles sont donc mises en échec au gré des mises à jour. Cela revient, en somme, à jouer exactement le jeu du capitalisme de surveillance.
Cependant, encore une fois, qui saura faire la part des choses entre le partage d’informations et la protection de la confidentialité des données personnelles?

  1. En ligne : https://api.transformation-numerique.ulaval.ca/storage/473/ netendances-2020-00-portrait-ensemble-du-quebec.pdf
  2. En ligne : https://www.facebook.com/watch/?v=921932688420882

L’article Le capitalisme de surveillance « like » la fracture numérique est apparu en premier sur Ligue des droits et libertés.

Le capitalisme de surveillance : menaces à la démocratie et aux droits !

22 septembre 2022, par Revue Droits et libertés

Présentation

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Elisabeth Dupuis, responsable des communications, Ligue des droits et libertés À divers moments de son histoire, la Ligue des droits et libertés (LDL) s’est intéressée aux enjeux de protection de la vie privée, notamment avec sa campagne Gérard et Georgette, citoyens chés en 1986, puis aussi à la surveillance des populations au nom de la guerre au terrorisme à la suite des attentats du 11 septembre 2001. Dans un contexte où le développement technologique facilitait énormément la circulation de données personnelles, la préoccupation principale était de renforcer le régime de protection de ces données, tel que conçu à la fin du XXe siècle. Avec le développement des entreprises numériques au cours des 20 dernières années, les enjeux ne sont plus du tout les mêmes. En l’absence d’un cadre juridique contraignant et dans le flou des obligations des entreprises opérant dans le domaine numérique, une nouvelle forme de capitalisme s’est développée au cours des 20 dernières années. Les données comportementales de l’être humain deviennent alors le nouveau pétrole1. La matière première n’est pas celle extraite de la terre, des champs ou des forêts; elle est générée au quotidien par les traces numériques que nous laissons dans toutes nos activités au travail, à la maison et pendant nos déplacements. Le comportement de chaque être humain devient source de profits sans qu’il sache comment, pourquoi, quand et qui se sert de ces données massives générées par l’utilisation d’applications numériques gratuites et de multiples objets connectés et géolocalisés. Les enjeux sont multiples et sans précédent. En 2018, dans un rapport du Haut-Commissariat aux droits de l’homme, on souligne que les technologies numériques, mises au point principalement par le secteur privé, en exploitant en permanence les données personnelles, « pénètrent progressivement dans le tissu social, culturel, économique et politique des sociétés modernes2 ».

Au-delà de la vie privée

En effet, on s’aperçoit que les enjeux dépassent largement la seule question de la protection de la vie privée puisque d’autres droits humains sont aussi affectés. «L’intelligence artificielle rend possible une surveillance extrême des individus (tant par des entreprises privées que par l’État) susceptible d’affecter la liberté d’expression, la liberté d’association et la démocratie. La reconnaissance faciale met en péril le droit à l’anonymat et éventuellement le droit à l’égalité3.» En contrôlant la circulation de l’information, les réseaux sociaux peuvent avoir une influence sur les opinions et les comportements des personnes, exerçant ainsi un certain contrôle social. En outre, des algorithmes peuvent entretenir, voire aggraver, des pratiques discriminatoires.

Entre les mains des forces policières

D’autre part, les données accumulées par les entreprises privées sur l’ensemble de la population, alors que la capacité réelle de chaque individu de consentir à l’utilisation et au partage de ses données de façon libre et éclairée est difficile, voire impossible, deviennent de plus en plus accessibles aux forces policières par des mécanismes variés comme le système Ring d’Amazon. Ces forces policières se dotent de centres d’opération numérique et utilisent des systèmes de décisions automatisées alimentés avec des données renforçant un biais répressif envers certaines populations, ce qui entraîne plus de profilage et menace ultimement la présomption d’innocence.

L'approche de l'interdépendance des droits

Appréhender tous ces enjeux avec l’approche de l’interdépendance des droits, qui reconnait que la réalisation d’un droit est intimement liée à celle des autres droits, ne peut que déclencher la sonnette d’alarme chez les militant-e-s pour la défense des droits humains. En consacrant un dossier sur le capitalisme de surveillance, le comité éditorial de la revue souhaite dévoiler les angles morts du capitalisme de surveillance, sensibiliser aux rapides et profondes transformations sociales et politiques qui s’opèrent ainsi qu’aux menaces que cela représente tant pour la démocratie que pour les droits humains. Finalement, ce dossier vise à susciter des débats publics dans la population, loin des chambres d’écho, sur ces enjeux qui nous concernent toutes et tous. Bonne lecture!
  1. En ligne : https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data
  2. En ligne : https://www.ohchr.org/fr/calls-for-input/reports/2018/report-right-privacy-digital-age
  3. En ligne : https://liguedesdroits.ca/chronique-surveillance-ia/

L’article Le capitalisme de surveillance : menaces à la démocratie et aux droits! est apparu en premier sur Ligue des droits et libertés.

Une culture de surveillance

22 septembre 2022, par Revue Droits et libertés
Retour à la table des matières Revue Droits et libertés, printemps / été 2022 Stéphane Leman-Langlois, professeur titulaire, École de travail social et de criminologie, (…)

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Stéphane Leman-Langlois, professeur titulaire, École de travail social et de criminologie, Université Laval et militant au comité surveillance des populations, IA et droits humains de la LDL En 2010, quelques-uns de mes étudiants et moi avons demandé à plus de 600 personnes qui descendaient de nouveaux métrobus du Réseau de transport de la capitale s’ils avaient remarqué l’une des sept caméras installées à bord (en plus de deux microphones) durant leur voyage. Près de 40 % d’entre elles nous ont répondu que non, bien qu’un dôme de 20 cm de diamètre trône déjà à l’entrée, où il faut s’arrêter pour régler son déplacement. L’immense majorité des voyageurs interrogés n’y voyaient par ailleurs aucun inconvénient. Cette indifférence généralisée s’explique par plusieurs facteurs, dont la simple réduction de la taille des caméras et leur intégration esthétique aux endroits où elles sont installées (couleur, matériau, forme). Elle a également souvent été expliquée par l’évolution des perceptions face à la surveillance en général, surtout due à l’omniprésence de stratégies et d’appareils, qui l’a banalisée. À voir les sondages, cette indifférence semble bien s’étendre à la plupart des nouvelles formes de surveillance, même si l’immense majorité d’entre nous se disent aussi préoccupés par la protection de leur vie privée. Cette contradiction s’amoindrit sensiblement lorsqu’on constate que les répondants sont rarement suffisamment préoccupés pour prendre des mesures de protection de base (chiffrement, stratégies et logiciels d’anonymisation, appareils et applications sécurisés, etc.). Cela dit, il n’y a jamais eu de glorieux passé libre de surveillance, avec lequel le contraste serait évident. L’être humain est social et cherche à exister sous l’œil de ses semblables. Les résidents du petit village québécois d’antan, avec la proximité, les commérages et la curiosité, finissaient par tout savoir au sujet de tout le monde. Bref, nous étions déjà indifférents à ces formes de surveillance communautaires – omniprésentes, profondes et totales.

L’apparition d’une culture généralisée de surveillance

Objectivement, la différence est qu’aujourd’hui à la fois la collecte, la distribution et la conservation des données ne sont plus (uniquement) horizontales, entre pairs. Certains ont argumenté que la société de l’information a simplement pris la relève lors de la disparition des formes traditionnelles de surveillance. Quoi qu’il en soit, les informations collectées sont désormais bien davantage que de simples souvenirs et acquièrent une existence propre, sujettes à une foule d’usages secondaires, aspirées par de multiples entités non redevables, voire tout bonnement inconnues. C’est dans ce contexte qu’il faut noter l’apparition récente et le développement fulgurant d’une industrie très prospère fondée sur un aspect ou un autre de ce flux intarissable de données personnelles. C’est l’aspect central du concept de capitalisme de surveillance, qu’il faut donc comprendre comme une émanation d’une culture généralisée de surveillance. La plus solide fondation de cette culture est notre participation active et volontaire au système, à la fois pour nous offrir à la surveillance des autres, pour les surveiller ou pour réclamer qu’un tiers (gouvernemental ou privé) le fasse pour nous. Recueillir de l’information est la panacée qu’on oppose à toutes les formes de problèmes, de l’intimidation à l’extérieur de l’école à la qualité de l’air à l’intérieur, de la sécurité du logis à son chauffage, à notre santé, notre conduite et notre assurance automobile, la personnalité de nos intérêts amoureux, etc.
Quoi qu’il en soit, les informations collectées sont désormais bien davantage que de simples souvenirs et acquièrent une existence propre, sujettes à une foule d’usages secondaires, aspirées par de multiples entités non redevables, voire tout bonnement inconnues.
Paradoxalement, cette course à la surveillance entraîne sa disparition progressive. Non pas au sens où elle cesse d’exister, mais bien parce qu’elle est intégrée à chacune de nos activités, à un point tel qu’elle cesse peu à peu d’être une pratique autonome. Ceci, surtout parce qu’elle est réalisée à l’aide de dispositifs dont la fonction première est tout autre : le thermostat qui sait si quelqu’un est à la maison, notre application de réseautage qui nous permet de scruter la vie des autres, notre application GPS qui révèle notre position, etc. Ceci génère bien sûr une foule de données sur nos com- portements, et une nouvelle industrie multimilliardaire, au point qu’il tient désormais du lieu commun d’affirmer que les données sont le nouveau pétrole. L’État et ses agences ont bien sûr aussi noté ce développement alléchant et, des polices municipales exploitant Facebook aux révélations de Snowden, on a vu et revu qu’il est toujours plus efficace de détourner les données déjà produites par cet assemblage disparate que de développer et d’opérer des systèmes de surveillance dédiés.

Une perte de valeur éventuelle

Il faut toutefois noter que, contrairement à la plupart des ressources naturelles exploitables, dont la quantité diminue à mesure de leur extraction, la quantité d’information personnelle disponible à un usage industriel est vouée à une augmentation exponentielle. L’internet des objets, où pullulent les appareils intelligents produisant et échangeant des informations sur leur utilisateur, générera un flux toujours plus considérable d’information. La simple loi de l’offre prévoit donc une perte proportionnelle de sa valeur, sans compter qu’en moyenne chaque nouvel élément d’information est de moins en moins révélateur (au sens où il ajoute peu, voire rien, au modèle statistique actuariel déjà façonné). Notons de plus que la puissance des publicités ciblées vendues sur les plateformes numériques est en déclin accéléré. Les utilisateurs ne cliquent tout simplement plus dessus, et lorsqu’ils le font c’est par erreur ou par curiosité : elles génèrent donc de moins en moins de revenus1. Bref, à court ou à moyen terme le capitalisme de surveillance, du moins tel que nous le connaissons aujourd’hui, se dirige vers le proverbial mur de brique. Avant de s’en réjouir, par contre, il faut bien comprendre que depuis 20 ans l’internet au complet est structuré pour et par ce système, et pourrait bien s’écrouler avec lui.
L’État et ses agences ont bien sûr aussi noté ce développement alléchant et, des polices municipales exploitant Facebook aux révélations de Snowden, on a vu et revu qu’il est toujours plus efficace de détourner les données déjà produites par cet assemblage disparate que de développer et d’opérer des systèmes de surveillance dédiés.

Une culture de surveillance pérenne?

Quoi qu’il en soit, notre culture de surveillance survivra aisément à la disparition ou à l’arrivée de modèles différents d’économie des données personnelles.   Heureusement, elle non plus n’est pas aussi blindée, hégémonique qu’il n’y paraît. Elle a entre autres donné naissance à une culture de contre-surveillance : la conscience de la dissémination de renseignements à notre sujet inspire certains d’entre nous à prendre une série de mesures de contournement et de subversion, comme l’inscription de fausses données, la création de comptes multiples et autres stratégies visant à corrompre leur double numérique et à farcir d’erreurs les banques de données. La démocratisation des outils de surveillance a aussi multiplié nos capacités de sous-veillance, comme dirait Steve Mann, avec lesquelles le citoyen réussit à faire pencher la balance un peu plus du côté de la redevabilité des institutions, notamment via la nouvelle visibilité de la police, qui travaille désormais sous les caméras du public. Enfin les Manning, Snowden et autres sonneurs d’alerte sont rapidement, inéluctablement et irrémédiablement diffusés dans l’ensemble de la planète. D’un point de vue citoyen, notre culture de surveillance a simplement besoin d’une nouvelle impulsion qui redirigerait son attention globale plus solidement vers les complexes institutionnels publics, privés et hybrides. On devra également y faire germer la notion que ce système de surveillance est un large réseau, donc plus ou moins solide, plus ou moins opportuniste, plus ou moins capitaliste, libéral ou totalitaire, mais dont les citoyens eux- mêmes constitueront toujours l’immense majorité des nodes.
  1. Tim Hwang, The Subprime Attention Crisis : Advertising and the Time Bomb at the Heart of the Internet, FSG Originals, New York, 2020

L’article Une culture de surveillance est apparu en premier sur Ligue des droits et libertés.

Pas de quoi contrecarrer le modèle d’affaires des GAFAM

9 septembre 2022, par Revue Droits et libertés

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Anne Pineau, militante au comité surveillance des populations, IA et droits humains de la LDL La protection des renseignements personnels (RP) fait partie intégrante du droit à la vie privée reconnu par les chartes des droits. Il assure le contrôle des individus sur leurs données et leur droit « de déterminer eux-mêmes à quel moment les renseignements les concernant sont communiqués, de quelle manière et dans quelle mesure1 ». Les lois de protection des RP adoptées dans les années 80 et 90 posent les principes de cette protection : consentement de la personne concernée (PC) à la cueillette de ses RP; minimisation de la collecte aux seuls RP nécessaires; respect des finalités et destruction des données après réalisations des fins; sécurisation et confidentialité des RP; accès de la PC à ses données. Mais le développement fulgurant de l’informatique, des réseaux sociaux et de l’intelligence artificielle ont fait naître d’autres enjeux et rendu ces lois en partie obsolètes. Une sérieuse mise à jour s’imposait, particulièrement pour contrecarrer l’accumulation effrénée de données par les plateformes numériques (GAFAM), à des fins publicitaires, politiques ou autres. La réponse du gouvernement québécois a consisté dans le dépôt du Projet de loi 64 (PL 64)2, modifiant tant la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels (LAI)3 que la Loi sur la protection des RP dans le secteur privée4. Largement inspiré du Règlement général sur la protection des données (RGPD) du Parlement européen, le PL 64 apporte plusieurs correctifs comme celle de la notion de RP qui est élargie ; elle s’étend aux informations permettant d’identifier une personne physique, directement ou indirectement. Les exigences sont aussi resserrées en matière de consentement (qui doit être manifeste, libre, éclairé, donné à des fins spécifiques et distinctement pour chacune des fins); mais du même souffle le PL 64 multiplie les cas où les RP pourront être utilisés ou transmis sans consentement. De plus, tout produit ou service technologique disposant de paramètres de confidentialité devra, par défaut, assurer le plus haut niveau de confidentialité; mais cette obligation ne s’applique pas aux témoins de connexion (cookies). Lors de la collecte de RP, les fonctions d’identification, de localisation ou de profilage qu’une entreprise ou un organisme public (OP) utilise éventuellement devront être désactivées par défaut; ces fonctions devront donc être activées par la PC, si elle y consent. Ensuite, toute personne qui fait l’objet d’une décision « fondée exclusivement sur un traitement automatisé » doit être informée de ce fait, de même que des RP et des principaux facteurs utilisés pour rendre la décision; contrairement au RGPD, il ne sera pas possible de s’opposer au traitement entièrement automatisé d’une décision. Un élément important à souligner est la perte du pouvoir de contrôle de la Commission d’accès à l’information (CAI) en matière de Recherche; la communication de RP à cette fin sera possible sur simple Évaluation des facteurs relatifs à la vie privée (EFVP), une sorte d’étude d’impact maison menée par l’entreprise ou l’organisme; on passe donc d’un régime d’autorisation (par un tiers indépendant) à un système d’autorégulation. Le tout pour la communication sans consentement de RP possiblement très sensible. Du côté du secteur privé, les entreprises ou OP ont le droit de conserver et d’utiliser les RP, sans consentement, lorsque les fins pour lesquelles ils ont été recueillis sont accomplies, à condition de les anonymiser ; ce qui est contraire au principe de base de la destruction des RP après réalisation des fins. Cela est d’autant plus inadmissible que l’anonymisation est un procédé qui n’est pas infaillible. Les entreprises et OP ont aussi l’obligation d’aviser les personnes touchées par un bris de confidentialité lorsque l’incident présente un risque de préjudice sérieux; la personne n’a cependant pas à être avisée tant que cela serait susceptible d’entraver une enquête policière et comme ces enquêtes peuvent être longues, les victimes pourraient très bien être avisées du vol de leurs données longtemps après le fait. Notons une augmentation importante des sanctions pénales en cas de contravention à la loi par une entreprise (amende maximale de 25M$ ou 4 % du chiffre d’affaires mondial.) La CAI se voit accorder un pouvoir de sanction administrative (montant maximal de sanction pour une entreprise pouvant atteindre 10M$ ou 2 % du chiffre d’affaires mondial). L’entreprise pourra toutefois s’engager auprès de la CAI à prendre les mesures nécessaires pour remédier au manquement, auquel cas elle ne pourra faire l’objet d’une sanction administrative.
Ces dispositions entreront en vigueur graduellement d’ici 2024. Si on peut noter quelques avancées intéressantes, le PL 64 comporte aussi plusieurs reculs; et ces modifications législatives s’avèrent nettement insuffisantes pour répondre aux enjeux actuels.
Le PL 64 laisse en plan plusieurs questions. La biométrie, notamment l’utilisation de la reconnaissance faciale, est ignorée5. Pourtant un contrôle accru de cette technologie s’imposait au vu des affaires Clearview AI6 et du Centre commercial Place Ste-Foy7. La CAI faisait d’ailleurs valoir dans son mémoire sur le PL 64 que « la législation actuelle ne permet pas d’encadrer adéquatement certaines utilisations de cette technologie8 ». Si la désactivation par défaut de certains outils de traçage doit être saluée, on peut toutefois craindre que l’inactivation de ces outils affecte délibérément le fonctionnement ou la qualité du service ou du produit technologique. Par ailleurs, le traitement de données massives par intelligence artificielle soulève des enjeux sociétaux. L’édiction de règles de transparence et d’explication des modes de fonctionnement de ces systèmes est essentielle. Les algorithmes de personnalisation peuvent conduire les individus à s’enfermer dans leurs certitudes et miner la capacité de mener des débats publics éclairés. Les chambres d’écho des réseaux sociaux peuvent, quant à elles, amoindrir la circulation de l’information et la diversité d’opinions et mener à de la manipulation. En outre, des algorithmes mal calibrés peuvent entretenir – voire aggraver – des pratiques discriminatoires. De nombreux cas prouvent que des vices de conception ou l’usage de données historiquement biaisées peuvent conduire l’algorithme à reproduire, voire aggraver, des attitudes et des comportements discriminatoires. La LDL réclamait une divulgation publique et proactive du mode de fonctionnement de ces systèmes et leur surveillance par audit indépendant. Le PL 64 ne répond pas à ces préoccupations. Le PL 64 ne révolutionne rien. Il conforte un modèle d’affaires fondé sur l’extraction de données et l’accaparement des traces numériques que nous laissons derrière nous. En y mettant toutefois quelques formes, du côté du consentement. Pas de quoi limiter ou proscrire la logique d’accumulation de données comportementales ni rameuter les troupes de lobbyistes à l’emploi des GAFAM. Nous sommes ici à des lieux de ce que Shoshana Zuboff appelle de ses vœux, à savoir, des « lois qui rejettent la légitimité fondamentale des déclarations du capitalisme de surveillance et qui mettent fin à ses opérations les plus primaires, y compris la restitution illégitime de l’expérience humaine sous forme de données comportementales9 ».
  1. R. c. Spencer, 2014 CSC 43, 2 RCS 212, par. 40.
  2. Maintenant adopté sous le nom de chapitre 25 (Loi 25) des lois de
  3. Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels, chapitre A-2.1 (LAI)
  4. Loi sur la protection des renseignements personnels dans le secteur privé (Loi privée), chapitre P-39.1
  5. Sauf en ce qui concerne le préavis, à la CAI, de constitution d’une banque de données biométriques.
  6. En ligne : https://www.cai.gouv.qc.ca/la-commission-ordonne-clearview-ai-de-cesser-ses-pratiques-de-reconnaissance-faciale-non-conformes/
  7. En ligne : https://www.journaldequebec.com/2020/10/31/ivanhoe-cambridge-a-abandonne-lidee
  8. En ligne : https://wcai.gouv.qc.ca/documents/CAI_M_projet_loi_64_ modernisation_PRP.pdf
  9. Shoshana Zuboff, L’âge du capitalisme de surveillance, Zulma, 2020, p. 463.

L’article Pas de quoi contrecarrer le modèle d’affaires des GAFAM est apparu en premier sur Ligue des droits et libertés.

À la lumière du droit international des droits de la personne

1er août 2022, par Revue Droits et libertés

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Silviana Cocan, docteure en droit, chargée de cours et chercheuse postdoctorale, Faculté de droit, UdM et militante au comité surveillance des populations, IA et droits humains de la LDL L’émergence du capitalisme de surveillance est étroitement liée aux progrès technologiques, notamment dans le domaine du numérique, qui n’ont pas été anticipés par le droit international des droits de la personne. Le cadre juridique international protège principalement le droit à la vie privée et avait vocation initialement à imposer à la charge des États des obligations internationales de protection, sans toutefois prendre en considération le rôle joué par les entreprises privées. Ainsi, l’article 12 de la Déclaration universelle des droits de l’homme (1948) et l’article 17 du Pacte international relatif aux droits civils et politiques (1966) soulignent l’interdiction des « immixtions arbitraires ou illégales dans sa vie privée, sa famille, son domicile ou sa correspondance [et des] atteintes illégales à son honneur et à sa réputation ». Ces dispositions consacrent également le droit de toute personne à « la protection de la loi contre de telles immixtions ou de telles atteintes ». Néanmoins, la protection de la vie privée et des données personnelles dans l’espace numérique exploité par des entreprises privées, qui échappent au contrôle étatique, soulèvent de nombreux enjeux. Le droit international des droits de la personne s’adresse en premier lieu aux États et à leurs organes, qui sont tenus de s’y conformer et de veiller à ce que des tiers ne portent pas atteinte aux droits et libertés garantis. Il est vrai que dans les Principes directeurs relatifs aux entreprises et aux droits de l’homme (2011), les Nations Unies avaient souligné que les entreprises étaient tenues de respecter les droits de la personne, de minimiser les incidences négatives de leurs activités et de prévoir de mesures de réparation ou de collaborer à leur mise en œuvre en cas d’atteintes aux droits de la personne. Or, le capitalisme de surveillance s’est développé en l’absence d’un cadre juridique contraignant et dans l’incertitude des obligations à la charge des entreprises opérant dans le domaine numérique.
Une nouvelle matière première
L’exploitation massive des données personnelles des utilisateurs a permis progressivement l’émergence d’un nouveau modèle de publicité ciblée en exploitant les informations de profils d’utilisateurs1, d’une redéfinition du consentement libre et éclairé des consommateurs face à des conditions générales d’utilisation complexes et d’un manque de transparence dans le traitement des données personnelles. La collecte de ces données sous couvert d’une utilisation gratuite et illimitée des services a permis la concrétisation d’un « nouvel ordre économique qui revendique l’expérience humaine comme matière   première   gratuite   à des fins de pratiques commerciales dissimulées d’extraction, de prédiction et de vente2 ». Les Nations Unies se sont emparées de la question en envisageant le droit à la vie privée à l’ère du numérique dans un rapport du Haut-Commissariat aux droits de l’homme (2018)3. Il a été souligné que les technologies numériques, mises au point principalement par le secteur privé, en exploitant  en  permanence  les  données  personnelles, « pénètrent progressivement dans le tissu social, culturel, économique et politique des sociétés modernes ». Le rapport mettait également en garde contre l’émergence de cet « environnement numérique intrusif dans lequel les États et les entreprises commerciales seront en mesure de surveiller, d’analyser, de prédire et même de manipuler le comportement des personnes à un degré sans précédent » (§ 1).
Or, le capitalisme de surveillance s’est développé en l’absence d’un cadre juridique contraignant et dans l’incertitude des obligations à la charge des entreprises opérant dans le domaine numérique.
En ce qui concerne la responsabilité des entreprises de respecter le droit à la vie privée, le rapport recommandait aux États de se doter d’une législation adéquate et de mettre en place des autorités indépendantes en charge de surveiller les pratiques des secteurs public et privé, tout en leur accordant un pouvoir d’enquête sur les atteintes, la possibilité de recevoir des plaintes des particuliers ou d’organisations et d’imposer des amendes et d’autres sanctions effectives en cas de traitement illégal des données à caractère personnel (§ 61, points b), d) et e)). Or, c’est précisément à l’égard de l’adoption de telles mesures que les États peinent à suivre le rythme effréné des innovations numériques et technologiques. Face aux lacunes du droit et à la lenteur des réformes législatives, les entreprises privées se trouvent investies d’un pouvoir démesuré, en l’absence d’une régulation stricte et d’un réel mécanisme de sanction en cas de violations des droits de la personne, dans un monde dématérialisé où la logique du profit, combinée à celle de la liberté numérique, ne connaissent aucune limite. Dans une résolution adoptée le 7 octobre 2019, le Conseil des droits de l’homme des Nations Unies a réitéré les engagements des États et des entreprises en ce qui concerne le respect des droits de la personne dans le contexte de la collecte, du stockage, de l’utilisation, du partage et du traitement des données personnelles (§ 6 et § 8)4. Le plus récent rapport du Haut-Commissariat des Nations Unies aux droits de l’homme était consacré à l’« Incidence des nouvelles technologies sur la promotion et la protection des droits de l’homme dans le contexte des rassemblements, y compris des manifestations pacifiques » (2020)5. En effet, l’impact des nouvelles technologies dépasse le cadre de la protection de la vie privée en ayant aussi des répercussions sur le droit de réunion pacifique et la liberté de manifester, notamment lorsqu’il est question des systèmes de reconnaissance faciale exploités par les entreprises privées et qui sont utilisés pour surveiller les activités des acteurs de la société civile (§ 39). Ce sont ainsi les fondements de la démocratie et les principes de l’État de droit qui peuvent être impactés par l’exploitation des données personnelles, comme cela a pu être le cas avec la société Cambridge Analytica qui a procédé à la collecte des données personnelles des utilisateurs de Facebook et utilisées à des fins politiques pour influencer l’issue des élections6.
Face aux lacunes du droit et à la lenteur des réformes législatives, les entreprises privées se trouvent investies d’un pouvoir démesuré, en l’absence d’une régulation stricte et d’un réel mécanisme de sanction en cas de violations des droits de la personne, dans un monde dématérialisé où la logique du profit, combinée à celle de la liberté numérique, ne connaissent aucune limite.

De multiples défis

Même en l’absence d’un instrument juridique contraignant destiné à réguler le capitalisme de surveillance, les principes protecteurs du droit international des droits de la personne sont susceptibles de contraindre les entreprises privées à se conformer à des standards minimums en matière d’exploitation des données personnelles. Les défis persistants et les difficultés qui paraissent incontournables découlent principalement de l’exploitation des données personnelles dans un environnement dématérialisé. Dans ce cadre, l’identification d’un dommage demeure extrêmement complexe et l’engagement de la responsabilité des acteurs privés très largement   hypothétique.   Le décalage entre la rapidité des progrès technologiques et la lenteur de la réactualisation de l’encadrement juridique dans les ordres juridiques internes des États a entraîné l’émergence d’une économie de surveillance dans laquelle les données personnelles des utilisateurs sont la monnaie d’échange et la source infinie de profit pour les entreprises privées qui peuvent agir parfois en toute impunité. Si ces entreprises sont tenues de respecter les droits humains dans le cadre de leurs activités, de leur toute-puissance numérique découle l’incapacité des États à les contraindre au respect de leurs obligations en engageant leur responsabilité assortie de véritables sanctions. Ce constat sera vrai aussi longtemps que les cadres juridiques nationaux ne seront pas dotés de mesures législatives appropriées et que les autorités étatiques ne seront pas habilitées à exercer un véritable pouvoir de contrôle de nature à imposer des limites et à contraindre les entreprises privées à une utilisation des données personnelles conforme aux garanties qui s’attachent aux droits et libertés.
Les défis persistants et les difficultés qui paraissent incontournables découlent principalement de l’exploitation des données personnelles dans un environnement dématérialisé.

Vers un premier traité international

Le défi majeur réside dans la capacité des États à imposer, isolément, un encadrement juridique aux acteurs privés qui reposerait uniquement sur le droit interne, alors même que le multilatéralisme et la coopération globale semblent incontournables afin de répondre adéquatement à cette problématique. Si un traité international véritablement contraignant serait plus approprié, il serait nécessaire que les négociations aboutissent tout d’abord et qu’il recueille un nombre suffisant de ratifications de la part des États qui s’engageraient à une mise en application effective au niveau national grâce à la modification de leur cadre législatif. Dans le cadre du Conseil de l’Europe, des négociations devraient commencer au mois de mai 2022 en vue d’aboutir à l’adoption d’un texte contraignant sur l’intelligence artificielle7. Il s’agirait du premier traité international, mais si le texte venait à être adopté, il pourrait réunir au maximum 46 États (à la suite de la récente exclusion de la Russie du Conseil de l’Europe qui sera effective en septembre 2022). Parallèlement, un projet de règlement sur l’intelligence artificielle8 a été proposé par la Commission dans le cadre de l’Union européenne en avril 2021. Il faudra suivre les développements de ce processus, qui pourrait aboutir à une législation harmonisée sur l’intelligence artificielle et qui serait immédiatement applicable dans les 26 États membres de l’Union. En ce qui concerne les Nations Unies, si des négociations n’ont pas encore été initiées en vue de l’adoption d’un texte contraignant, un moratoire a été demandé sur l’utilisation de certains systèmes d’intelligence artificielle9 face aux risques de violations graves des droits de la personne. Dans le cadre de l’UNESCO, la première norme mondiale sur l’éthique de l’intelligence artificielle a été adoptée par 193 États au mois de novembre 202110. Bien qu’il ne s’agisse pas d’un texte ayant une force obligatoire, les États ont une responsabilité de principe dans la mise en œuvre des recommandations. Ainsi, pour l’instant, au niveau universel, des instruments de droit souple (soft law) définissent des principes qui ne sont pas juridiquement contraignants, mais qui pourraient servir de guide aux autorités nationales dans la détermination de mécanismes de protection et la réactualisation des législations.
  1. En ligne : https://www.monde-diplomatique.fr/2019/01/ZUBOFF/59443
  2. En ligne : https://www.lapresse.ca/societe/2020-12-06/notre-droit-au-temps-futur.php
  3. En ligne : https://www.ohchr.org/fr/calls-for-input/reports/2018/report-right-privacy-digital-age
  4. En ligne : https://documents-dds-ny.un.org/doc/UNDOC/GEN/G19/297/53/PDF/G1929753.pdf?OpenElement
  5. En ligne : https://www.ohchr.orghttp://www.ohchr.org/fr/documents/thematic-reports/ahrc4424-impact-new-technologies-promotion-and-protection-human-rights
  6. En ligne : https://ici.radio-canada.ca/nouvelle/1090159/facebook-cambridge-analytica-donnees-personnelles-election-politique-campagne- marketing-politique
  7. En ligne : https://justice.legibase.fr/actualites/veille-juridique/actualite-de- la-regulation-internationale-de-lintelligence-artificielle-123050
  8. En ligne : https://eur-lex.europa.eu/legal-content/FR/ ALL/?uri=CELEX:52021PC0206
  9. En ligne : https://news.un.org/fr/story/2021/09/1103762
  10. En ligne : https://news.un.org/fr/story/2021/11/1109412

L’article À la lumière du droit international des droits de la personne est apparu en premier sur Ligue des droits et libertés.

une caméra géante surveillance un groupe de personnes

Quelle place pour le droit de dire non à l’intelligence artificielle ?

20 juillet 2022, par Revue Droits et libertés

une caméra géante surveillance un groupe de personnes

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Entrevue avec Fatima Gabriela Salazar Gomez par Lynda Khelil, responsable de la mobilisation à la Ligue des droits et libertés Fatima Gabriela Salazar Gomez a été coordonnatrice à l’Agora Lab et chargée à la mobilisation pour une consultation internationale organisée en 2020 par l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), Dialogue International sur l’Éthique de l’IA et une consultation pancanadienne organisée en 2021 par le gouvernement du Canada, Dialogue ouvert : l’IA au Canada. Elle est actuellement chargée de projet à Hoodstock, une organisation basée à Montréal-Nord qui œuvre pour la justice sociale et l’élimination des inégalités systémiques. LDL : Peux-tu nous parler de la consultation publique sur l’IA du gouvernement du Canada en 2021? Quels étaient les objectifs et quels constats as-tu faits? En mai 2019, le ministre fédéral de l’Innovation, des Sciences et de l’Industrie a créé un Conseil consultatif en matière d’intelligence articielle. Ce dernier a ensuite mis sur pied en janvier 2020 un Groupe de travail sur la sensibilisation du public dont le mandat est « de concevoir des stratégies régionales afin de sensibiliser le public à l’IA, de favoriser la confiance du public envers l’IA et de le renseigner sur la technologie, ses utilisations possibles et les risques qui y sont associés[1] ». Le groupe de travail a tenu en avril et mai 2021 une consultation publique pancanadienne, Dialogue ouvert : l’IA au Canada, sous la forme d’ateliers virtuels. J’ai participé à l’organisation de cette consultation dans le cadre de mon travail à Agora Lab, un des partenaires de la consultation. Mes collègues et moi, devions proposer des cas d’usage, c’est- à-dire des scénarios qui mettent de l’avant des utilisations de l’IA dans des situations précises tirées de la réalité, dans les domaines notamment de la santé, de l’éducation, de la justice ou de l’environnement. Lorsque nous avons soumis nos propositions, le gouvernement nous a clairement indiqué que nos cas d’usage démontraient trop les aspects négatifs de l’IA. Or, il nous semblait essentiel de discuter de ces aspects qui sont parfois plus difficiles à identifier pour la population et moins abordés. On nous a également rappelé que la consultation portait sur ce qu’on appelle le trustworthy. Il ne fallait donc pas que le côté négatif de certains usages de l’IA ressorte trop. J’ai constaté que la consultation ne visait pas tant à montrer ce qui se fait en matière d’IA et à discuter des dangers et atteintes potentielles aux droits, mais plutôt à faire de la sensibilisation du public. C’est d’ailleurs le mandat principal du Groupe de travail. Selon moi, il s’agissait pour le gouvernement de tâter le terrain pour évaluer jusqu’où certains droits humains pourraient être bafoués sans que ça suscite de fortes réactions. Les autorités utilisent souvent les consultations publiques pour savoir ce que la population pense pour ensuite ajuster leurs discours. Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire. J’ai aussi pu faire le constat d’une forme de contrôle. Au départ, le gouvernement n’avait pas l’intention de rendre public le rapport de la consultation. Pour mes collègues et moi, ça ne faisait aucun sens qu’on fasse une consultation publique et que les données ne soient pas rendues publiques. On a donc demandé qu’il le soit. Ça m’est apparu être une forme d’utilisation de l’opinion et de la parole citoyenne à des fins politiques. Je pense que si, par exemple, toutes les personnes qui avaient participé avaient dit qu’elles étaient contre certains usages de l’IA, le gouvernement aurait été pris avec ça, d’où son intention initiale de ne pas publier le rapport. À ce jour, le rapport n’est pas encore public. J’espère qu’il le sera bientôt. LDL : Tu as utilisé l’expression trustworthy. Qu’est-ce que ça veut dire? L’expression trustworthy AI qui est utilisée par les gouvernements signifie une IA digne de conance. La consultation publique était orientée dans cette perspective. On veut nous inciter à avoir confiance dans des systèmes d’IA, bien qu’ils comportent des biais discriminatoires avérés et peuvent avoir dans certains documents des conséquences importantes sur l’exercice de nos droits et libertés. Ce ne sont pas uniquement les algorithmes qui sont biaisés, ce sont les données elles-mêmes qui le sont. Le déficit historique de données sur certaines personnes, populations et communautés induit des biais dans les algorithmes d’IA. En tant que femme, racisée, issue de l’immigration, j’ai déjà de la difficulté à avoir confiance en nos propres institutions, donc comment penser que je pourrai avoir confiance d’emblée dans un système que je ne comprends pas, qui possède peu de données sur ma communauté et dont les algorithmes présentent des biais intrinsèques. L’expression une IA digne de conance opère donc selon moi une manipulation par le discours. On ne veut pas qu’il y ait trop de mots négatifs associés à l’IA. Trustworthy, c’est une expression positive. Mais ce que ça sous-tend, c’est que nous n’avons pas une IA digne de confiance actuellement ou que nous n’avons pas une IA qui suscite la confiance de la population. Mais le dire ainsi, c’est négatif d’un point de vue de relations publiques.

Dans ce cas-ci, le discours sous-jacent du gouvernement est, selon moi, qu’il y aura développement de l’IA, qu’on le veuille ou non. Je n’ai pas eu l’impression que le gouvernement valorise le droit de la population de dire non à l’implantation de l’IA dans certains domaines ou pour certaines utilisations. C’est même plutôt le contraire.

LDL : En quoi l’approche de sensibilisation du public sur l’IA est problématique selon toi? Et est-ce que la population a la possibilité de remettre en question certains usages de l’IA? Quand on fait de la sensibilisation, ça sous-entend selon moi qu’on n’est pas là pour faire de l’éducation. Or, faire de l’éducation sur l’IA, c’est expliquer, présenter des choix et développer un esprit critique par rapport aux systèmes d’IA. Je pense qu’il faut faire de l’éducation à l’IA pour que la population comprenne mieux ce que c’est et puisse identifier les enjeux de droits qui sont en présents. Une population plus informée sera en mesure de participer au débat public sur l’IA et de se prononcer et se mobiliser sur les développements de l’IA dans certains domaines qu’elle ne voudrait pas par exemple. Mon rêve, c’est qu’on puisse faire des ateliers d’éducation aux enjeux liés à l’IA dans des espaces communs, par exemple les bibliothèques, pour que les gens soient outillés lorsqu’ils, elles sont invité-e-s à participer à des consultations publiques. Actuellement, on est dans un paradigme où la discussion publique est orientée autour de la question « Comment atténuer les conséquences et les biais de l’IA? » avec la prémisse qu’il est bénéfique de développer et d’implanter largement des systèmes d’IA. Alors même qu’il n’y a pas d’encadrement robuste et que les lois ne sont pas adaptées au développement rapide de l’IA. Les autorités ont déjà pris la décision de développer des systèmes d’IA dans de nombreux domaines. La population n’est pas consultée et n’a pas de prise pour s’opposer à l’implantation de systèmes d’IA dans certains domaines et être entendue. Or, quand on sait que certaines utilisations de l’IA vont avoir des conséquences concrètes sur la vie des gens, par exemple dans le domaine de la justice, de l’immigration ou de l’emploi, on devrait pouvoir se poser la question « Veut-on véritablement de systèmes d’IA pour soutenir ou automatiser des prises de décisions dans ces domaines? ». C’est une question légitime et fondamentale à mon avis, d’autant plus dans un contexte pandémique où on a réalisé que nous sommes des êtres fondamentalement sociaux et que nos rapports aux autres, notre trajectoire de vie et comment on vit, ça a des impacts sur nos prises de décisions.  
[1] En ligne : https://ised-isde.canada.ca/site/conseil-consultatif-intelligence-artificielle/fr/rapport-annuel-2019-2020

L’article Quelle place pour le droit de dire non à l’intelligence artificielle? est apparu en premier sur Ligue des droits et libertés.

Forces policières et capitalisme de surveillance

8 juillet 2022, par Revue Droits et libertés
Retour à la table des matières Revue Droits et libertés, printemps / été 2022 Dominique Peschard, militant au comité surveillance des populations, IA et droits humains et (…)

Retour à la table des matières Revue Droits et libertés, printemps / été 2022

Dominique Peschard, militant au comité surveillance des populations, IA et droits humains et président de la LDL de 2010 à 2015 Dans les mois suivant les attentats du 11 septembre 2001, le Pentagone, à travers son agence de recherche Defense Advanced Research Projects Agency (DARPA), mettait sur pied le projet Total Information Awareness (TIA). Dirigé par l’Amiral à la retraite John Poindexter, le projet visait, ni plus ni moins, qu’à compiler toutes les informations disponibles sur chaque individu : achats, transactions financières, lectures, sites Web fréquentés, appels téléphoniques, réseau d’ami-e-s, activités, voyages, prescriptions médicales, etc. En reliant toutes ces informations, Poindexter prétendait pouvoir identifier le prochain terroriste et l’arrêter avant qu’il ne prenne l’avion.

Sécurité nationale et agences de renseignements

Le tollé qui a suivi la révélation et la dénonciation de ce programme par le New York Times a entrainé l’abolition du projet par le Congrès en 2002. Le projet n’était pas mort pour autant – il allait simplement être poursuivi secrètement par la National Security Agency (NSA). Et le développement du capitalisme de surveillance dans les deux décennies suivantes allait fournir aux agences les masses de données sur les populations dont rêvait Pointdexter. En 2013, Edward Snowden dévoilait l’étendue de l’appareillage d’espionnage de la NSA et l’existence d’outils, comme XKeyscore qui permet à la NSA d’avoir accès à presque tout ce qu’un-e internaute fait sur Internet, et PRISM qui donne accès aux données de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube, Apple. Rappelons que la NSA est le chef de file d’un consortium de partage de renseignements, les Five Eyes, formé des agences d’espionnage des États-Unis, de la Grande-Bretagne, de l’Australie, de la Nouvelle-Zélande et du Canada (le Centre de la sécurité des télécommunications). Depuis l’adoption du PL C-59 en 2017, le Service canadien du renseignement de sécurité (SCRS) peut légalement recueillir des ensembles de données sur les Canadien-ne-s. Il suffit que le SCRS juge ces renseignements « utiles » et qu’il ait « des motifs raisonnables de croire » qu’ils sont « accessibles au public ». Un pouvoir défini de manière aussi vague ouvre la voie à la constitution de banques de données sur l’ensemble de la population. Et ce, alors que les services policiers et de renseignements ne cessent de prétendre que les informations personnelles perdent leur caractère privé à partir du moment où elles sont accessibles dans l’espace virtuel.

Forces policières et centres de surveillance

La mise sur pied de centres de surveillance ne se limite pas aux agences de renseignements et de sécurité nationale. Les forces policières se dotent de plus en plus de centres d’opération numérique qui analysent en temps réel toutes les informations disponibles pour diriger les interventions des policiers sur le terrain1. Ces centres s’inspirent des fusion centres mis en place par le Homeland Security aux États-Unis après les attentats du 11 septembre 2001. Les informations traitées proviennent autant des banques de données des services de police, que d’images de caméras de surveillance publiques et privées, et d’informations extraites des réseaux sociaux par des logiciels conçus à cette fin. Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.
Notons que les banques de données des forces policières contiennent des données sur des citoyen-ne-s qui n’ont jamais été condamné-e-s pour un quelconque crime, y compris des données issues d’interpellations fondées sur le profilage racial, social ou politique.

Systèmes de décisions automatisées et maintien de l’ordre prédictif

Les forces policières ont de plus en plus recours à des systèmes de décisions automatisées (SDA) pour exploiter les masses croissantes de données dont elles disposent. Des SDA sont utilisés, entre autres, pour cibler les lieux où des délits sont susceptibles de se produire, ou les individus susceptibles d’en commettre. Ces systèmes sont particulièrement d’espaces privés pour socialiser. En ciblant ces quartiers, on arrête des personnes pour des infractions qui passent inaperçues dans des quartiers plus favorisés. Le SDA est alimenté de données qui renforcent un biais répressif envers certaines populations. Comme le dit Cathy O’Neil, dans son livre sur les biais des algorithmes, « Le résultat, c’est que nous criminalisons la pauvreté, tout en étant convaincu que nos outils sont non seulement scientifiques, mais également justes2 ». Les quartiers pauvres sont également ceux où on retrouve une plus grande proportion de personnes racisées, ce qui alimente également les biais racistes des SDA et des interventions policières.
Le système de décisions automatisées (SDA) est alimenté de données qui renforcent un biais répressif envers certaines populations.

Le rôle des entreprises privées

Les logiciels de SDA nécessaires pour interpréter ces masses de données sont fournis par des compagnies comme IBM, Motorola, Palantir, qui ont des liens avec l’armée et les agences de renseignements et d’espionnage. Des compagnies, comme Stingray, fabriquent des équipements qui permettent aux forces policières d’intercepter les communications de téléphones cellulaires afin d’identifier l’usager et même d’accéder au contenu de la communication. Le logiciel Pégasus de la compagnie israélienne NSO permet même de prendre le contrôle d’un téléphone. D’autres entreprises comme Clearview AI et Amazon fournissent même les données de surveillance aux forces policières. Clearview AI a collecté des milliards de photos sur Internet et offre aux forces policières de relier l’image d’une personne à tous les sites où elle apparait sur le Net. Le Commissaire à la vie privée du Canada a déclaré illégales les actions de Clearview AI au Canada ainsi que l’utilisation de ses services par la Gendarmerie royale du Canada (GRC). La compagnie Amazon est emblématique du maillage entre le capitalisme de surveillance et les forces policières. Amazon héberge dans son nuage plusieurs programmes de surveillance du U.S. Departement of Homeland Security. La compagnie a une relation incestueuse avec les forces policières et les agences de renseignement, incluant le partage d’information sur ses utilisateur-trice-s et des contrats gouvernementaux confidentiels3. Aux États-Unis, le système Ring d’Amazon est en voie de constituer un vaste système de surveillance de l’espace public par les forces policières. Les sonnettes Ring sont dotées de caméras qui scrutent en permanence l’espace public devant le domicile. L’usager-ère d’une sonnette Ring accepte par défaut qu’Amazon rende les images de sa sonnette accessibles aux services de police — pour s’y soustraire l’usager-ère doit avoir recours à une procédure de désinscription (opting out), ce que beaucoup de personnes ne font pas. Plusieurs millions de ces sonnettes ont déjà été installées aux États-Unis et environ 2 000 services policiers ont déjà conclu des ententes avec Amazon pour avoir accès à ces caméras4 — le tout sans mandat judiciaire! Bien que Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières. Avec le projet Sidewalk5, Amazon pousse l’intégration des données issues des appareils « intelligents » encore plus loin6. Avec Sidewalk, chaque appareil consacre une petite partie de sa bande passante et devient un pont dans un réseau de communication parallèle relié aux serveurs d’Amazon. Des compagnies, par exemple de vêtements connectés, peuvent choisir de devenir des partenaires d’Amazon et de rendre leurs dispositifs compatibles avec Sidewalk. Selon l’American Civil Liberties Union (ACLU), les documents d’Amazon indiquent que la politique d’utilisation des données sera la même avec Sidewalk qu’avec Ring. Pour l’ACLU, ce système est un véritable cauchemar pour les droits et libertés.
Bien que le système Ring n’utilise pas la reconnaissance faciale, Amazon a développé cette technologie et l’a déjà vendue à des forces policières.

Le manque de transparence

Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics. Lorsque confrontées à des demandes portant sur leurs pratiques et sur les outils qu’elles utilisent, le réflexe premier des forces policières est de refuser de répondre sous prétexte qu’elles n’ont pas à dévoiler leurs méthodes d’enquête, ou de mentir, comme l’a fait initialement la GRC à propos de son utilisation de Clearview AI. Que savons-nous des outils informatiques utilisés par les forces policières pour définir leurs priorités d’intervention, organiser leurs patrouilles, et que font-ils avec les données recueillies lors d’interpellations, effectuées sans fondement légal? Quels impacts ces outils ont-ils sur les différentes formes de profilage pratiquées par les corps de police comme le Service de police de la Ville de Montréal? Les pratiques des forces policières et les outils qu’elles utilisent doivent respecter les droits reconnus dans les chartes. Ces pratiques et ces outils sont d’intérêt public et les forces policières ne doivent pas se soustraire à leur obligation de rendre des comptes en invoquant des arguments fallacieux.
Tous ces développements se font dans un contexte d’absence de transparence des forces policières et de débats publics.
Des pratiques à débattre et à encadrer
La masse de données que le capitalisme de surveillance a engendrée à des fins lucratives constitue une mine d’or pour les services de police et de sécurité nationale qui fonctionnent de plus en plus selon une logique de surveillance généralisée des populations et de maintien de l’ordre prédictif. Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs. Elles contournent également l’exigence d’un mandat judiciaire pour les formes de surveillance intrusives. En ciblant les quartiers et les populations jugés à risque, elles renforcent les différentes formes de profilage policier discriminatoire. Il n’est pas suffisant de savoir si les forces policières utilisent tel ou tel système de décision automatisé et à quelles fins. Les algorithmes doivent aussi être publics et soumis à un examen règlementaire indépendant permettant d’en repérer les failles et les biais. L’argument du secret commercial n’est pas recevable alors que l’utilisation de ces algorithmes soulève des enjeux de droits humains. Les tribunaux et les organismes de protection de la vie privée ont statué à maintes reprises que la protection de la vie privée ne disparait pas du moment qu’une personne se trouve dans l’espace public, qu’il soit physique ou virtuel7. Il faut cependant beaucoup plus que des décisions à la pièce, comme celle du Commissaire à la vie privée du Canada dans l’affaire Clearview AI, pour encadrer le travail policier dans ce nouvel environnement. Le cadre légal qui gouverne la police doit être mis à jour pour protéger la population contre une surveillance à grande échelle. La surveillance de masse doit être proscrite et des techniques particulièrement menaçantes, comme la reconnaissance faciale, doivent être interdites tant qu’il n’y aura pas eu de débat public sur leur utilisation.
Ces pratiques vont à l’encontre du principe de présomption d’innocence selon lequel une personne ne peut faire l’objet de surveillance policière sans motifs.

  1. En ligne : https://breachmedia.ca/canadian-police-expanding-surveillance- powers-via-new-digital-operations-centres/
  2. Cathy O’Neil et Cédric Villani, Algorithmes, La bombe à retardement. Les Arenes Ed,
  3. ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
  4. En ligne : https://wtheguardian.com/commentisfree/2021/may/18/ amazon-ring-largest-civilian-surveillance-network-us
  5. Ne pas confondre avec le projet de quartier intelligent Sidewalk Labs de Google.
  6. ACLU, Sidewalk : The Next Frontier of Amazon’s Surveillance Infrastructure. En ligne : https://www.aclu.org/news/privacy-technology/sidewalk-the-next- frontier-of-amazons-surveillance-infrastructure/
  7. En ligne : https://liguedesdroits.ca/droit-a-la-vie-privee-la-jurisprudence-de- la-cour-supreme/

L’article Forces policières et capitalisme de surveillance est apparu en premier sur Ligue des droits et libertés.

Membres