Le côté sombre du «crypto art» et des oeuvres artistiques intangibles de type «NFT»

Une bonne amie m’envoyait ce matin un article intéressant au sujet du «Crypto art», un sujet lié à celui des chaînes de blocs (ou «blockchains»), une techno qui m’intéresse depuis un bon moment. Le crypto art repose sur le concept d’œuvres en format numérique versées dans une chaîne de blocs, d’une façon qui crée ce qu’on nomme un jeton non fongible (ou «NFT », pour «Non-Fungible Token»).

Les exemples d’œuvres de type NFT comprennent jusqu’à présent le premier gazouillis de Jack Dorsey et une œuvre du graffiteur Bansky brûlée en la convertissant à un jeton intangible, deux œuvres susceptibles désormais d’être négociées sur une chaîne de blocs comme des biens intangibles uniques. C’est la tendance de l’heure dans le domaine de l’art : pourquoi posséder une toile en format tangible quand on peut en posséder une en format numérique, qu’on pourra négocier en quelques secondes, sans toutes les complications habituelles?

Au-delà de la nouveauté en matière de formes de propriété intellectuelle, l’article soulève une problématique intéressante quant à toute l’énergie que ce concept artistique (disons) peut consommer. Bien que l’idée des œuvres de type NFT puisse sembler amusante ou inoffensive, on peut certainement exprimer des réserves quant à leur effet sur la planète, de révéler l’article en question.

On sait déjà depuis un moment que la cryptomonnaie s’avère problématique d’un point de vue environnemental; eh bien, la création et la vente d’œuvres de type NFT le seraient tout autant, sinon plus. On cite ainsi l’exemple d’une œuvre dont les transactions (alors qu’on l’a vendue et revendue rapidement) ont impliqué une consommation équivalente à plus de 200 kg de gaz à effet de serre — à savoir l’équivalent de ce que consomme un Européen moyen, en électricité, en un mois.

L’article critique aussi la pratique des artistes d’œuvres NFT produisant des «éditions» de leurs œuvres, ce qui leur permet de vendre plusieurs jetons qui seront tous considérés «originaux», à l’instar des impressions de lithographies, par exemple. Bien que cette pratique puisse être payante pour l’artiste, elle a aussi malheureusement l’inconvénient de multiplier le coût en énergie.

L’article mentionne l’exemple d’un artiste ayant réalisé, après une première œuvre NFT vendue en 10 secondes à 50 exemplaires, que la production/vente de celle-ci avait consommé, durant ces 10 secondes, l’équivalent de l’énergie requise par son studio entier, au cours des deux années précédentes. Ce n’est pas exactement une forme d’expression verte, si vous voyez ce que je veux dire. L’artiste se serait alors désisté de la production d’œuvres NFT ultérieures pour cette raison. Bien que cette critique ne soit pas nouvelle, l’engouement actuel pour la production et l’achat d’œuvres NFT n’a rien pour réjouir ceux et celles qui espéraient qu’on se dirigeait collectivement dans la bonne direction pour protéger l’environnement.

Malgré le grand potentiel de la technologie des chaînes de blocs, ses impacts immédiats sur l’environnement ont certainement de quoi continuer à nous faire réfléchir.

Super Resolution: quand la réalité rattrape la fiction grâce à l’intelligence artificielle

Pas de doute, la démocratisation des applications liées à l’intelligence artificielle l’«IA») nous amène chaque jour de plus en plus près de choses longtemps considérées comme de la science-fiction. Dernier exemple en lice : l’outil Super Resolution d’Adobe, qu’elle a récemment ajouté à son application Lightroom.

C’est bien connu, la présence d’une invention dans une œuvre de science-fiction mènera souvent (éventuellement) à la création de cette invention dans la vie réelle. Ce phénomène a été souvent démontré, alors que des scientifiques et des inventeurs sont inspirés par ce qu’ils lisent ou voient au cinéma ou à la télévision, par exemple quand ils sont jeunes.

Cette fois, c’est d’une chose très souvent présentée dont il s’agit, et pas seulement en science-fiction, mais aussi souvent dans des émissions de télé ou des films : le super zoom/nettoyage d’image magique. Vous savez? Un enquêteur/protagoniste est face à une photographie floue qui recèle peut-être une preuve ou un élément crucial. La solution : demander à l’ordi, par une simple commande (souvent, un clic) d’améliorer l’image et – pouf! On voit soudainement apparaître tous les détails requis dans la photo, comme par magie. Il s’agit d’un truc trop souvent utilisé, tant à la télévision qu’au cinéma, et ce, même s’il est impossible (ou à tout le moins pas mal moins performant ou spectaculaire) dans la vraie vie.

Eh bien, Adobe veut corriger cela avec son nouvel outil nommé Super Zoom, lequel permettrait, si on en juge par la démonstration en ligne ici, de doubler la résolution d’une image, en en améliorant la définition. Comme vous le savez peut-être, en temps normal, le fait de simplement doubler les pixels d’une image la rend floue — mais pas avec cet outil d’Adobe! En fait, en utilisant Super Zoom, les images floues acquièrent une définition étonnante grâce à un algorithme d’IA (d’apprentissage automatisé, en fait), qui devine ce qui devait se trouver dans les portions manquantes de l’image, intercalé entre les pixels effectivement présents dans l’image. Le résultat : si l’image initiale était floue, on finit avec une image relativement nette, bien que toujours imparfaite, évidemment.

Il s’agit là d’un exemple de plus de notre obsession collective à concrétiser, tôt ou tard, ce qui a été imaginé par la science-fiction. Dans le film Blade Runner, par exemple, le personnage principal dicte des commandes vocales à son écran/ordinateur afin d’agrandir une photographie, en «zoomant» à répétition afin de déceler des détails de plus en plus fins, jusqu’à trouver un indice enfoui dans un détail initialement imperceptible de la photo. Voilà quelque chose qu’on peut aujourd’hui reproduire, à l’aide d’un assistant personnel (comme Google Assistant) et de la fonction Super Resolution, deux outils rendus possibles par des applications liées à l’IA. Je ne serais d’ailleurs pas étonné qu’un geek passionné de sci-fi soit déjà à tenter de reproduire la scène en question du film Blade Runner!

La fin d’un paradigme d’interface sur PC: déplacez vos barres de tâches et onglets sur le côté!

Je remarquais récemment qu’on réalise finalement, après plus de dix ans à progresser vers des écrans beaucoup plus larges que hauts, qu’on devrait peut-être adapter les interfaces logicielles. Je me permets d’en discuter ce matin, m’éloignant un peu du droit le temps d’un billet. Disons qu’assis devant un ordi à longueur de journée, cela s’avère pertinent pour nombre d’usagers de PC, moi compris!

Comme vous l’avez peut-être remarqué, depuis des années, les fabricants d’écrans d’ordi vendent de plus en plus d’écrans « larges », sans doute notamment motivés par le ratio (nombre de pixels horizontaux versus verticaux) des films tournés pour le cinéma, mais désormais souvent regardés à l’ordi. Tellement, en fait, que c’est désormais presque la norme, pour les ordinateurs de bureau (c.-à-d. qu’on ne parle évidemment pas ici d’appareils mobiles) à tout le moins. En effet, pour les ordis de bureau, l’écran typique adopte désormais une forme très rectangulaire, comme un écran de cinéma.

Cela contraste avec la forme presque carrée d’un téléviseur comme ceux qu’on branchait aux premiers ordinateurs personnels. («Flashback» ici de l’ordi de marque Amiga de mon ami Erick ou de mon ordi de marque Commodore VIC-20, circa 1982.) Du carré, on est ainsi graduellement passé à des écrans dont la forme est un rectangle beaucoup plus large que haut. À l’heure actuelle, pour vous donner une idée, la résolution de mes écrans est de 1920 X 1080 pixels. Cela signifie que mes écrans sont 2 fois plus larges que hauts. (C’est d’ailleurs le même phénomène avec les téléviseurs actuels, qui s’acheminent vers la norme 4K, dont la résolution est de 4096 X 2160.) C’est la grande tendance des dix dernières années et une tendance qui est visiblement là pour de bon.

Ce faisant, l’usager moyen assis devant un ordinateur de bureau dispose dorénavant de passablement plus de superficie habitable à l’écran. Plus d’espace à l’écran, plus de choses affichables en même temps, meilleures résolutions, des images plus définies et agréables à regarder, etc. Bref, tout le monde gagne, non?

En fait, ce qu’on réalise maintenant, c’est que cette bonification de nos écrans s’est opérée sans qu’on remette collectivement en question nos interfaces logicielles, notamment la façon dont l’ordi affiche les éléments fonctionnels à l’écran, comme les menus. En gros, on a élargi nos écrans, mais en oubliant d’adapter l’interface pour en tirer profit. C’est que, voyez-vous, depuis toujours, le haut et le bas d’un écran typique est accaparé par des menus, des onglets et des raccourcis, qu’on s’est collectivement habitué à voir stationnés là, et ce, depuis le début des interfaces graphiques (GUI).

Résultat : bien que nos écrans soient désormais très larges, l’espace précieux en haut et en bas des nos écrans est perpétuellement gaspillé. Un des impacts de cela est que nous passons collectivement désormais beaucoup de temps à faire défiler l’écran («scroll-down»), parce que nous sommes incapables de tout afficher sur la portion immédiatement visible de l’écran. En gros, c’est du gaspillage quotidien, chronique, de notre temps et de nos énergies. Bon, voilà, je l’ai dit.

Avec cela, j’en arrive finalement à mon point : Microsoft mettait récemment à jour son fureteur Edge (désormais basé sur Chromium), afin de déplacer la barre d’onglets du haut vers la GAUCHE de l’écran. Eh oui, les producteurs de logiciels commencent finalement à comprendre que l’espace vertical de nos écrans est précieux.

Le problème dépasse d’ailleurs largement (sans mauvais jeux de mots) les applications; il existe de façon très fondamentale dans les systèmes d’exploitation, incluant Windows. Heureusement, de ce côté, Windows 10 offre désormais la possibilité pour l’usager d’évacuer la barre de tâche (traditionnellement placée au bas de l’écran) vers le côté de l’écran. Je vous recommande de l’essayer.

En prime, je vous dirais que si vous utilisez plusieurs écrans, le fait de déplacer cette barre (si souvent invoquée par l’usager) a aussi l’avantage d’en faciliter la manipulation en la rapprochant de l’endroit moyen où se trouve votre curseur à tout moment.

Sous Windows 10, ma recommandation quant à la configuration de votre barre de tâches est la suivante, que je vous offre comme truc de productivité facile à déployer:

  1. affichez la barre de tâches de Windows sur la droite du premier écran (celui situé du côté gauche, si vous avez 2 écrans);
  2. configurez les paramètres d’affichage de Windows pour ne PAS afficher la barre de tâches sur l’autre écran (j’y parviens grâce à une appli nommée Ultramon);
  3. vous avez alors un «pilier» au centre de vos écrans, plutôt qu’une barre en bas;
  4. autre avantage de cette configuration :  en plaçant la barre de tâches à droite, vous évitez notamment que vos onglets d’Edge ne soient affichés dans une 2e rangée sur la gauche, si vous utilisez ce fureteur et déplacez effectivement vos onglets du haut vers la gauche de l’écran.

Essayez-le, vous m’en donnerez des nouvelles! Je ne serais pas surpris que de plus en plus de producteurs de logiciels aillent aussi dans cette direction, ne serait-ce que pour donner le choix à chaque usager du côté de l’écran où il désire placer ses menus, onglets et raccourcis — il était grand temps!