Intelligence artificielle – créations bien réelles : l’IA en tant que générateur de P.I.?

Comme on le voit de plus en plus, au fil de la création d’applications toujours plus nombreuses reposant sur l’intelligence artificielle (l’«IA»), les tâches que peut effectuer ce type de programme ne cesse de se diversifier. L’un de ces types de tâches peut même dorénavant s’étendre à créer des éléments intangibles dont la création résultait jusqu’à maintenant inévitablement du travail d’un créateur humain. Cela peut comprendre des dessins, des textes et, même, des inventions.

Bien que cela s’avère bien réel en pratique, le droit, lui, ne sait pas trop que faire cette nouvelle source de création de propriété intellectuelle. La venue dans le monde de créateurs artificiels (l’IA) pose un défi pour le droit, lequel considère depuis toujours que les seuls créateurs réels d’œuvres protégées par le droit d’auteur, de dessins industriels ou d’inventions sont des humains possédant l’intellect et la créativité requise.

Bien que l’IA s’avère désormais capable de créer des dessins, des textes et des inventions, le droit, incluant le droit canadien, ne sait trop quoi faire de cette nouvelle réalité. À l’heure actuelle, chaque juridictions est à considérer que faire de ces créateurs artificiels capables de générer de nouvelles créations qui, elles, s’avèrent bien réelles. En telles circonstances, la question se pose : ne devrions-nous pas reconnaitre, en droit, que l’ordinateur (l’IA) peut créer ou à tout le moins prendre part au processus de création d’éléments de P.I.?

Pour l’instant, notre droit ne considère généralement pas qu’on puisse considérer l’IA comme un véritable créateur. On considère  en effet toujours qu’un programme utilisant l’IA n’est ni plus ni moins qu’un programme comme un autre, à savoir un outil avec lequel un humain peut créer des choses.

Malgré cet état de fait, cela commence peut-être à changer. À l’instar d’une décision similaire en Inde, l’Office de la propriété intellectuelle du Canada (l’«OPIC») a accepté, fin 2021, d’enregistrer les droits d’auteur concernant une peinture et dont les co-auteurs sont respectivement identifiés comme un individu et un programme d’IA. L’enregistrement en question (le No. 1188619) identifie, en effet les auteurs de cette œuvre comme M. Ankit Sahni, d’une part, et «Painting App, RAGHAV Artificial Intelligence», d’autre part.

C’est peut-être là un signe que l’OPIC (et le droit canadien) commence à pouvoir se résigner à accepter la réalité que l’IA peut désormais rivaliser avec les créateurs humains en effectuant des tâches de nature créatives et/ou intellectuelles qu’on ne pouvait auparavant envisager pour un programme.

Remarquez, si on s’engage dans cette voie, il faudra alors aussi considérer ce que cela impliquera pour les droits de P.I. en question, dont quant à qui pourra se prétendre le détenteur des droits visés, qu’ils soient des droits d’auteur ou des droits découlant d’un brevet éventuel. Dans la cas de la peinture dont on parlait ci-haut, par exemple, M. Sahni peut-il se prétendre co-auteur parce qu’il a créé l’IARAGHAV? Par ce qu’il l’a utilisé? Parce qu’il décidé des paramètres de l’opération à exécuter par l’entremise de l’application? Bien que ce ne soit pas insoluble, on devra collectivement voir à répondre à ce genre de questions si on envisage sérieusement reconnaitre l’IA comme auteur ou comme inventeur.

L’intelligence artificielle dans la mire du législateur européen

On rapporte le dépôt d’un projet de règlement européen, ce matin, visant à régir l’utilisation de l’intelligence artificielle (l’«IA») par les entreprises. Encore une fois, comme avec son règlement en matière de données personnelles, l’Europe mène le bal en matière d’encadrement juridique de ce que font et devraient pouvoir faire les entreprises.

Cette fois, l’effort législatif européen vise à contraindre l’utilisation de l’IA, en particulier en divisant les systèmes l’utilisant en quatre catégories de risques pour les droits et la sécurité des individus. Bien que l’IA ait un potentiel énorme, sa venue comporte néanmoins d’énormes risques pour l’intérêt public et la société en général, sans parler des droits des individus. Ce règlement viserait donc à mettre en place des règles plus ou moins strictes, tout dépendant du risque perçu en matière de santé, de sécurité ou de droits fondamentaux des individus. Plus une utilisation s’avère dangereuse, plus les lois européennes en contraindraient l’utilisation — c’est l’idée.

La Commission européenne propose ainsi « de nouvelles règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle », par une proposition visant à éventuellement harmoniser le traitement de l’IA par les pays européens. Le but : éviter une dystopie rendue possible par l’adoption débridée de l’IA par les organisations de tous acabits, sans jamais leur avoir imposé de cadre juridique.

Par exemple, le règlement interdirait certains systèmes posant un risque démesuré de surveillance ou d’abus des droits de la personne, comme ceux qui permettraient de mettre en œuvre un système de pointage citoyen, à l’instar de ce que la Chine met en place chez elle.

À l’échelon suivant, les « systèmes d’IA à haut risque devront respecter des obligations strictes pour pouvoir être mis sur le marché »; la réglementation obligerait les organisations utilisant des systèmes d’IA risqués à déployer des dispositifs de sûreté et de gestion, à documenter et tester leurs systèmes, à les inscrire auprès des autorités européennes, à afficher le degré de risque associé à leur système, etc. Ces systèmes comprendraient :

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens;
  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens);
  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot);
  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main-d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt);
  • les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage);
  • les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).

Les deux autres catégories de systèmes d’IA seraient susceptibles de passablement moins de contraintes, incluant, à titre d’exemple, l’obligation de simplement le divulguer quand un système de clavardage implique que l’usager soit face à une IA, plutôt qu’à un être humain véritable.

On avance déjà que cette initiative européenne fera des petits, alors que nombre d’autres juridictions sont susceptibles d’emboîter le pas. Bien que le Canada ne soit encore là, il ne serait pas étonnant qu’une initiative semblable voie ici le jour — en fait, le contraire le serait. En déposant ce projet de règlement, le Parlement européen déclare d’ailleurs que son intention est « d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance ».

Si vous êtes curieux, le projet de règlement couvre 85 articles, sur 50 pages. Vous savez —une petite lecture légère de vacances pour cet été.

Super Resolution: quand la réalité rattrape la fiction grâce à l’intelligence artificielle

Pas de doute, la démocratisation des applications liées à l’intelligence artificielle l’«IA») nous amène chaque jour de plus en plus près de choses longtemps considérées comme de la science-fiction. Dernier exemple en lice : l’outil Super Resolution d’Adobe, qu’elle a récemment ajouté à son application Lightroom.

C’est bien connu, la présence d’une invention dans une œuvre de science-fiction mènera souvent (éventuellement) à la création de cette invention dans la vie réelle. Ce phénomène a été souvent démontré, alors que des scientifiques et des inventeurs sont inspirés par ce qu’ils lisent ou voient au cinéma ou à la télévision, par exemple quand ils sont jeunes.

Cette fois, c’est d’une chose très souvent présentée dont il s’agit, et pas seulement en science-fiction, mais aussi souvent dans des émissions de télé ou des films : le super zoom/nettoyage d’image magique. Vous savez? Un enquêteur/protagoniste est face à une photographie floue qui recèle peut-être une preuve ou un élément crucial. La solution : demander à l’ordi, par une simple commande (souvent, un clic) d’améliorer l’image et – pouf! On voit soudainement apparaître tous les détails requis dans la photo, comme par magie. Il s’agit d’un truc trop souvent utilisé, tant à la télévision qu’au cinéma, et ce, même s’il est impossible (ou à tout le moins pas mal moins performant ou spectaculaire) dans la vraie vie.

Eh bien, Adobe veut corriger cela avec son nouvel outil nommé Super Zoom, lequel permettrait, si on en juge par la démonstration en ligne ici, de doubler la résolution d’une image, en en améliorant la définition. Comme vous le savez peut-être, en temps normal, le fait de simplement doubler les pixels d’une image la rend floue — mais pas avec cet outil d’Adobe! En fait, en utilisant Super Zoom, les images floues acquièrent une définition étonnante grâce à un algorithme d’IA (d’apprentissage automatisé, en fait), qui devine ce qui devait se trouver dans les portions manquantes de l’image, intercalé entre les pixels effectivement présents dans l’image. Le résultat : si l’image initiale était floue, on finit avec une image relativement nette, bien que toujours imparfaite, évidemment.

Il s’agit là d’un exemple de plus de notre obsession collective à concrétiser, tôt ou tard, ce qui a été imaginé par la science-fiction. Dans le film Blade Runner, par exemple, le personnage principal dicte des commandes vocales à son écran/ordinateur afin d’agrandir une photographie, en «zoomant» à répétition afin de déceler des détails de plus en plus fins, jusqu’à trouver un indice enfoui dans un détail initialement imperceptible de la photo. Voilà quelque chose qu’on peut aujourd’hui reproduire, à l’aide d’un assistant personnel (comme Google Assistant) et de la fonction Super Resolution, deux outils rendus possibles par des applications liées à l’IA. Je ne serais d’ailleurs pas étonné qu’un geek passionné de sci-fi soit déjà à tenter de reproduire la scène en question du film Blade Runner!