Twitch veut se réserver le droit de bloquer les indésirables de sa plateforme




 




On rapportait hier que la plateforme de diffusion vidéo en direct Twitch innove quant aux modalités régissant ses services en prévoyant qu’on pourrait dorénavant sévir contre les usagers pour des comportements survenus à l’extérieur de Twitch qui se qualifieraient de «Severe Off-Service Misconduct». Selon le billet sur le blogue officiel de Twitch, l’idée serait de permettre à Amazon (la propriétaire de la plateforme) de sévir contre les individus qui adopteraient des comportements jugés trop néfastes, en les bloquant, par exemple, et ce, même si le comportement problématique s’est produit autrement qu’en utilisant Twitch.
Oui, Twitch veut les coudées franches pour bloquer les indésirables de sa plateforme à l’avenir.

Pour l’instant, les comportements à proscrire pour les usagers de Twitch viseront des exemple faciles à défendre pour Amazon, comme ce qui touche l’exploitation ou les agressions sexuelles, la violence, l’extrémisme, le terrorisme, la violence de masse, etc. En somme, on veut se doter des outils afin d’agir quand on repère des risques substantiels pour la collectivité, peu importe que cela se produise directement sur cette plateforme, sur une autre ou même… IRL («in real life»). Les exemples précis que cite le billet de Twitch comprennent (en anglais):

  • Deadly violence and violent extremism
  • Terrorist activities or recruiting
  • Explicit and/or credible threats of mass violence (i.e. threats against a group of people, event, or location where people would gather)
  • Leadership or membership in a known hate group
  • Carrying out or acting as an accomplice to non-consensual sexual activities and/or sexual assault
  • Sexual exploitation of children, such as child grooming and solicitation/distribution of underage sexual materials
  • Actions that would directly and explicitly compromise the physical safety of the Twitch community, such as threatening violence at a Twitch event
  • Explicit and/or credible threats against Twitch, including Twitch staff

Comme on le comprend aisément, en temps normal, les politiques ou les modalités de services en ligne visent évidemment à régir le comportement des usagers quand ils utilisent la plateforme ou le service en question. À l’exception de Facebook, qui interdit certaines organisations jugées indésirables, par exemple, les politiques et les règles des plateformes de réseaux sociaux se limitent généralement à ce qui se passe sur la plateforme, sans grande surprise.

Par contre, en principe, rien n’empêche d’ajouter à ce contenu habituel des dispositions impliquant autre chose, comme le font parfois les contrats dans le contexte commercial. En effet, bien qu’un document traite d’un sujet X (l’achat d’un terrain, par exemple), rien n’empêche les parties de prévoir aussi que l’une des parties ne fera pas telle ou telle chose, laquelle n’a pas nécessairement à avoir de lien direct avec l’objet principal du contrat. Pourvu qu’on ne soit pas dans une situation abusive et que ce soit bien l’intention des parties, ce genre de disposition tiendra normalement la route, du moins dans un véritable contrat.

Dans le cas des modifications proposées par Twitch, on pousse cependant la chose une coche plus loin, en intégrant de telles contraintes pour l’usager dans les politiques et règles de la plateforme. Ainsi, en utilisant cette plateforme, les usagers conviendront qu’ils s’exposent à des conséquences s’ils adoptent certains types de comportements, qu’on qualifie de «severe misconduct» (inconduite grave). Fait intéressant, Amazon entend même appliquer ses nouvelles règles à tous (y compris à ceux qui n’utilisent pas encore Twitch) en se réservant le droit d’interdire l’accès à sa plateforme à toute personne ayant adopté l’un ou l’autre des types de comportements prohibés. Tout individu associé à un comportement néfaste de la liste pourra alors devenir persona non grata chez Twitch — c’est l’idée.

Comme on s’en souviendra, en début d’année, Twitch a suspendu le compte de Donald Trump, ce qui a visiblement amorcé chez elle une réflexion par rapport aux genres d’abus qu’on a avantage à prévoir afin de pouvoir réagir au besoin.

Oracle c. Google : finalement, pas de contrefaçon par les emprunts aux API de Java par ceux d’Android




On rapporte cette semaine que la Cour suprême des États-Unis vient de rendre une décision mettant un clou final dans le cercueil de la fameuse poursuite-fleuve relative à l’usage de composantes liées à Java dans la plateforme Android. Dix ans plus tard, ce litige est finalement parvenu à une conclusion donnant raison à la société Google.

Comme on s’en souviendra, en développant Android et ses API, Google avait imbriqué dans ceux-ci ce qu’elle avait préalablement vu dans les API de Java (aujourd’hui propriété d’Oracle), incluant la structure, la séquence et l’organisation du code de ces composantes logicielles, etc. Le but était alors de créer des applications capables d’interagir avec le langage de programmation Java, ce que Google était parvenu à faire en créant des milliers de lignes de code largement inspirées («copiés», de dire plus tard Oracle) des API liés à Java.

La décision en question vient infirmer la décision de première instance quant à la question de savoir si l’usage de code de la composante logicielle en question (l’API) s’avérait acceptable en vertu de la doctrine de «fair use». C’est maintenant confirmé, rien n’empêchait (juridiquement) Google d’utiliser comme elle l’a fait des éléments de l’interface de programmation (en anglais «API») de Java, en construisant son système d’exploitation Android.

Pour le tribunal, un AP I s’avère être une créature un peu particulière dans laquelle le code est en quelques sortes fusionné à des idées. Pour lui, ici le but de Google en utilisant l’API était de permettre à des programmeurs Java de développer des applications destinées à être exécutées sous Android, sans copier plus que requis pour y arriver. En somme, l’exercice ne dépassait pas ce qui s’avère acceptable en droit, bien qu’il implique une part de reproduction.

Selon la Cour suprême américaine, l’ensemble des quatre facteurs indiquant qu’un usage s’avérerait acceptable parce qu’équitable donne raison à Google dans cette affaire. Ce faisant, on élargit le facteur impliquant les cas où l’usage a transformé l’œuvre («transformative use») en acceptant que l’usage de l’API en question sur la plateforme destinée aux appareils mobiles (Android) nous permette de conclure être ici en présence d’une transformation issue de ce changement du contexte d’utilisation de l’œuvre en question.

Au final, on adopte donc la position que même en présumant que le code de déclarationdeclaring code», en anglais) de l’API en question est protégé par des droits d’auteur (pas quelque chose d’évident, selon plusieurs), le fait d’utiliser ce code sans permission du détenteur des droits, par rapport à Android, ne dépassait pas les bornes.

Plusieurs s’entendent pour dire que la décision rate une bonne occasion de clarifier le traitement juridique à donner aux critères d’évaluation de ce qui constitue de la contrefaçon de composantes logicielles, particulièrement quand la copie implique une copie non littérale, notamment quant à celles qui sont purement fonctionnelles.

À tout événement, l’affaire est désormais bien close, après trois procès différents et deux appels, sans parler d’un coût de quelques dizaines de millions de dollars.

Le gouvernement canadien déposera bien un projet de loi visant à combattre les contenus inacceptables en ligne

On rapportait tout récemment que le ministre du Patrimoine canadien confirme que le gouvernement entend bel et bien présenter un projet de loi d’ici quelques semaines dans le but de contrer certains types de propos (notamment haineux ou menaçants) en ligne, en proposant de mieux régir ce qui se publie en ligne au Canada. On avait entendu parler de ce projet il y a quelques semaines et le projet va, semble-t-il, bien de l’avant.

Selon le ministre, un sondage récent démontre que son gouvernement a bien le mandat populaire de mettre en place un nouveau système visant à réduire la présence des contenus inacceptables sur l’Internet et les réseaux sociaux canadiens, ce qui comprend la haine, la pornographie juvénile et les images intimes publiées sans consentement. Bref, on veut faire le ménage sur Internet, du moins par rapport à ce qui se fait ou se voit au Canada. En somme, le but serait de parvenir à un Internet accessible aux Canadiens qui s’avère moins truffé de haine, de menaces, de pédo-porno, etc.

Pièce de résistance du projet, le but serait notamment de rendre les réseaux sociaux (par exemple, Facebook et compagnie) responsables des messages (du contenu, en fait) qui s’affichent par l’entremise de leurs plateformes respectives. On pourrait notamment exiger d’eux qu’ils retirent les propos problématiques quand ils se manifestent, de façon à minimiser le dommage causé à la société canadienne — c’est la justification qu’on avance pour ce projet que plusieurs qualifient déjà de système de censure en devenir made in Canada.

En l’occurrence, le système qu’on envisage de créer à ce sujet impliquerait l’obligation pour les réseaux sociaux de retirer les propos haineux (ou racistes) dès qu’ils leur sont signalés — dans les 24 heures, en contraste à ce qui se fait souvent présentement, même quand on rapporte un problème de ce genre. Le projet impliquerait aussi d’obliger les exploitants de ces réseaux d’aviser les autorités lorsqu’ils constatent de grave cas de propos haineux sur leurs plateformes respectives, etc.

Le projet comprendrait aussi la création d’un poste de régulateur, lequel serait responsable de faire appliquer la nouvelle loi, à l’instar de ce que fait le CRTC par rapport à la Loi sur les télécommunications, par exemple. La loi créerait ainsi cinq catégories d’activités illégales que ce nouvel officier public serait chargé de faire disparaître du Net canadien.

Ce projet fait suite à l’adoption par le Canada de sa Charte numérique, laquelle donne une orientation afin de mieux contrôler ce qui se passe en ligne, au bénéfice présumé de la collectivité canadienne, notamment en empêchant les excès d’extrémisme et de discours haineux par la mise en œuvre de mesures de contrôle sévères sur ce qui se publie au Canada.

On propose donc de donner un sérieux coup de volant, mettant ainsi fin au laissez-faire généralisé qui prévaut depuis les début de l’Internet, ce qui fait déjà craindre à plusieurs que les outils pareils qu’on créerait avec ce projet pourraient facilement faire l’objet d’abus, en ayant des effets néfastes sur la liberté d’expression au Canada.