L’intelligence artificielle dans la mire du législateur européen

On rapporte le dépôt d’un projet de règlement européen, ce matin, visant à régir l’utilisation de l’intelligence artificielle (l’«IA») par les entreprises. Encore une fois, comme avec son règlement en matière de données personnelles, l’Europe mène le bal en matière d’encadrement juridique de ce que font et devraient pouvoir faire les entreprises.

Cette fois, l’effort législatif européen vise à contraindre l’utilisation de l’IA, en particulier en divisant les systèmes l’utilisant en quatre catégories de risques pour les droits et la sécurité des individus. Bien que l’IA ait un potentiel énorme, sa venue comporte néanmoins d’énormes risques pour l’intérêt public et la société en général, sans parler des droits des individus. Ce règlement viserait donc à mettre en place des règles plus ou moins strictes, tout dépendant du risque perçu en matière de santé, de sécurité ou de droits fondamentaux des individus. Plus une utilisation s’avère dangereuse, plus les lois européennes en contraindraient l’utilisation — c’est l’idée.

La Commission européenne propose ainsi « de nouvelles règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle », par une proposition visant à éventuellement harmoniser le traitement de l’IA par les pays européens. Le but : éviter une dystopie rendue possible par l’adoption débridée de l’IA par les organisations de tous acabits, sans jamais leur avoir imposé de cadre juridique.

Par exemple, le règlement interdirait certains systèmes posant un risque démesuré de surveillance ou d’abus des droits de la personne, comme ceux qui permettraient de mettre en œuvre un système de pointage citoyen, à l’instar de ce que la Chine met en place chez elle.

À l’échelon suivant, les « systèmes d’IA à haut risque devront respecter des obligations strictes pour pouvoir être mis sur le marché »; la réglementation obligerait les organisations utilisant des systèmes d’IA risqués à déployer des dispositifs de sûreté et de gestion, à documenter et tester leurs systèmes, à les inscrire auprès des autorités européennes, à afficher le degré de risque associé à leur système, etc. Ces systèmes comprendraient :

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens;
  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens);
  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot);
  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main-d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt);
  • les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage);
  • les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).

Les deux autres catégories de systèmes d’IA seraient susceptibles de passablement moins de contraintes, incluant, à titre d’exemple, l’obligation de simplement le divulguer quand un système de clavardage implique que l’usager soit face à une IA, plutôt qu’à un être humain véritable.

On avance déjà que cette initiative européenne fera des petits, alors que nombre d’autres juridictions sont susceptibles d’emboîter le pas. Bien que le Canada ne soit encore là, il ne serait pas étonnant qu’une initiative semblable voie ici le jour — en fait, le contraire le serait. En déposant ce projet de règlement, le Parlement européen déclare d’ailleurs que son intention est « d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance ».

Si vous êtes curieux, le projet de règlement couvre 85 articles, sur 50 pages. Vous savez —une petite lecture légère de vacances pour cet été.

Le gouvernement canadien déposera bien un projet de loi visant à combattre les contenus inacceptables en ligne

On rapportait tout récemment que le ministre du Patrimoine canadien confirme que le gouvernement entend bel et bien présenter un projet de loi d’ici quelques semaines dans le but de contrer certains types de propos (notamment haineux ou menaçants) en ligne, en proposant de mieux régir ce qui se publie en ligne au Canada. On avait entendu parler de ce projet il y a quelques semaines et le projet va, semble-t-il, bien de l’avant.

Selon le ministre, un sondage récent démontre que son gouvernement a bien le mandat populaire de mettre en place un nouveau système visant à réduire la présence des contenus inacceptables sur l’Internet et les réseaux sociaux canadiens, ce qui comprend la haine, la pornographie juvénile et les images intimes publiées sans consentement. Bref, on veut faire le ménage sur Internet, du moins par rapport à ce qui se fait ou se voit au Canada. En somme, le but serait de parvenir à un Internet accessible aux Canadiens qui s’avère moins truffé de haine, de menaces, de pédo-porno, etc.

Pièce de résistance du projet, le but serait notamment de rendre les réseaux sociaux (par exemple, Facebook et compagnie) responsables des messages (du contenu, en fait) qui s’affichent par l’entremise de leurs plateformes respectives. On pourrait notamment exiger d’eux qu’ils retirent les propos problématiques quand ils se manifestent, de façon à minimiser le dommage causé à la société canadienne — c’est la justification qu’on avance pour ce projet que plusieurs qualifient déjà de système de censure en devenir made in Canada.

En l’occurrence, le système qu’on envisage de créer à ce sujet impliquerait l’obligation pour les réseaux sociaux de retirer les propos haineux (ou racistes) dès qu’ils leur sont signalés — dans les 24 heures, en contraste à ce qui se fait souvent présentement, même quand on rapporte un problème de ce genre. Le projet impliquerait aussi d’obliger les exploitants de ces réseaux d’aviser les autorités lorsqu’ils constatent de grave cas de propos haineux sur leurs plateformes respectives, etc.

Le projet comprendrait aussi la création d’un poste de régulateur, lequel serait responsable de faire appliquer la nouvelle loi, à l’instar de ce que fait le CRTC par rapport à la Loi sur les télécommunications, par exemple. La loi créerait ainsi cinq catégories d’activités illégales que ce nouvel officier public serait chargé de faire disparaître du Net canadien.

Ce projet fait suite à l’adoption par le Canada de sa Charte numérique, laquelle donne une orientation afin de mieux contrôler ce qui se passe en ligne, au bénéfice présumé de la collectivité canadienne, notamment en empêchant les excès d’extrémisme et de discours haineux par la mise en œuvre de mesures de contrôle sévères sur ce qui se publie au Canada.

On propose donc de donner un sérieux coup de volant, mettant ainsi fin au laissez-faire généralisé qui prévaut depuis les début de l’Internet, ce qui fait déjà craindre à plusieurs que les outils pareils qu’on créerait avec ce projet pourraient facilement faire l’objet d’abus, en ayant des effets néfastes sur la liberté d’expression au Canada.

Le géant de la porno MindGeek (Pornhub): du Canada, au Canada, mais pas canadien?




Les médias rapportent ce matin que la société MindGeek aurait pris la position, devant une demande de la GRC remontant à 2018, qu’étant un groupe dont le siège social est (juridiquement) situé au Luxembourg (ben, c’est son «domicile», vous voyez?), elle n’avait pas à respecter des lois comme la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services. Selon MindGeek, elle n’est pas suffisamment rattachée au Canada pour appliquer cette loi. Oui, vraiment.

Fait intéressant à ce sujet, les grands dirigeants de la société en question sont canadiens, tout comme la majorité de ses employés, notamment ceux qui travaillent à ses bureaux principaux, à Montréal); MindGeek possède aussi toute une panoplie d’entités corporatives, y compris au Canada et au Québec, notamment sa filiale 9219-1568 QUÉBEC INC. En telles circonstances, je serais curieux de savoir quel juriste aurait prétendument affirmé qu’avoir une société-mère à l’étranger exemptait un groupe pareil d’obéir aux lois canadiennes de ce genre.

Selon Wikipédia (oui, oui, je sais) et le journaliste Maxime Bergeron, «MindGeek serait la plus grande entreprise du monde de l’industrie pornographique». On ne parle donc pas ici d’une PME exploitée à partir d’un sous-sol de bungalow à Laval — on parle d’une société milliardaire, comme l’expliquait ce reportage de 2019 de Radio-Canada. Franchement, il est difficile de ne pas tirer de conclusions défavorables quant à cette entité en lisant tout ce qui est publié à son sujet.

Sans vouloir faire preuve de trop de cynisme, avouons que le fait pour un groupe québécois d’aller s’incorporer une société ombrelle dans un paradis fiscal (comme le Luxembourg) semble un peu facile comme raison de ne pas lui appliquer des lois canadiennes de ce type, en pareilles circonstances, et ce, peu importe l’endroit où se situent peut-être les serveurs à l’étranger.

La loi que MindGeek aurait déclarée non applicable prévoit notamment des obligations pour les exploitants de sites porno d’aviser les autorités et les forces de l’ordre, si/quand  elles constatent la présence de pornographie juvénile sur leurs serveurs.  Ce que rapporte La Presse par rapport au défaut de MindGeek de se plier à la loi en question, c’est  qu’au lieu de fournir des renseignements à la GRC, MindGeek se contente de répondre qu’elle avise déjà des autorités étrangères quand elle constate des problème de pédopornographie chez elle, nous laissant tirer nos propres conclusions. Vous voyez la différence? Ah bon…

Pour me faire l’avocat du diable (qui n’est pas normalement client chez nous) : cette loi prévoit qu’une entreprise n’a pas à aviser les autorités canadiennes si elle avise déjà une autorité étrangère, comme le National Center for Missing and Exploited Children aux États-Unis (le «NCMEC»). Selon MindGeek, elle signalerait les problèmes de ce type (depuis 2020, du moins) au NCMEC, se conformant donc maintenant en partie à la loi visée (vue l’exception de l’art. 9 de cette loi), du moins pour ce qui est d’aviser les autorités compétentes (non policières).

Entre vous et moi, même si c’est ce que fait MindGeek, il resterait l’autre article exigeant d’aviser les policiers (l’art. 3 de la loi en question). Ça, on n’en parle pas. Cet article 3 se lit comme suit :

Si la personne qui fournit des services Internet au public [c.-à-d. MindGeek] a des motifs raisonnables de croire que ses services Internet sont ou ont été utilisés pour la perpétration d’une infraction relative à la pornographie juvénile, elle en avise dans les meilleurs délais (…) un agent de police ou toute autre personne chargée du maintien de la paix publique.

Malgré l’existence de cet article, La Presse rapporte relativement à MindGeek que: «Selon la police fédérale, l’entreprise web ne lui a directement rapporté aucun cas d’exploitation sexuelle de mineur en 10 ans.» Oui, vous lisez bien: AUCUN — zéro, zilch, niet, nada, zippo, none.  D’après vous, compte tenu des millions de vidéos téléchargées sur des plateformes majeures de porno (telles PORNHUB, REDHUB, etc.) et des nombreuses plaintes dont ont récemment fait état les médias, est-it probable que MindGeek n’ait eu aucun «motif raisonnable» de conclure à la présence d’un quelconque élément de pornographie juvénile sur ses serveurs? Depuis dix ans? Humm… laissez-moi réfléchir.

Cette plus récente révélation arrive à un moment où la société MindGeek demeure dans l’eau chaude, depuis que de nombreuses femmes se sont plaintes publiquement d’images intimes diffusées (sans autorisation) par PORNHUB et de l’attitude disons laxiste de ce groupe d’entreprises. On tente même actuellement de coller une action collective à MindGeek, au Québec, à ce sujet.