Les deux moteurs de rendu de Blender

J’ai failli titrer cet article: « Les deux moteurs de rendu de Blender: Dumb & Dumber »… C’était l’idée, mais c’était quand même sévère… et par ailleurs un peu trop lourd en typographie.

Un collègue a récemment attiré mon attention sur le moteur de rendu Cycles qui est désormais intégré à Blender, et dont la principale vertu est de produire des images davantage photoréalistes. Je m’y suis tout de suite intéressé parce que le moteur de rendu standard de Blender mène pas vraiment rarement à des aberrations visuelles que je trouve inexcusables. Alléluia, ces aberrations disparaissent avec Cycles… mais misère, palsambleu et putréfaction, le moteur Cycles a lui aussi des défauts très notables…

Blender continue de me laisser assez largement sceptique, mais peut-être est-ce que je m’en sers mal? C’est en tout cas la réponse que les enthousiastes de Blender ont une tendance prononcée à toujours opposer à mes critiques. J’ai donc concocté cette vidéo pour pouvoir au moins étayer mes griefs quand je parle avec eux. Comme vous le verrez, le diable est dans les détails.

Voler en hélico avec POV-Ray

Un amateur de 3D isolé comme moi ne peut pas raisonnablement espérer rivaliser avec un studio d’animation d’une cinquantaine de personnes, mais des animations spectaculaires d’un type bien particulier sont quand même à sa portée. L’idée est simple: sur la base d’une vaste scène riche en détails où rien ne bouge, on représente le parcours d’une caméra extrêmement mobile et susceptible de moduler sa vitesse dans des proportions considérables; capable de lambiner comme un piéton à proximité d’un objet, et aussi de foncer à la vitesse d’un avion à réaction sur une vue générale.

J’ai commencé à travailler sur une animation de ce type, dont je vous présente ici le brouillon. Oh, je suis bien conscient que sa qualité technique n’a rien pour déclencher votre enthousiasme… alors, perdu pour perdu, je vais carrément vous inonder de chiffres pour que ce soit encore plus rébarbatif! (accessoirement, cette logorrhée numérique pourra ultérieurement me servir de référence)

Les images que vous pouvez voir ci-dessus ont été calculées avec une résolution de 320 x 240 pixels et à la cadence de 15 vues par seconde. En d’autres termes, c’est très médiocre (hyper-pixelisé et saccadé) comme vous n’aurez pas manqué de vous en faire la réflexion. Un standard actuel serait de 1024 x 768 pixels à 30 images par seconde, mais cela demanderait… vingt fois plus de puissance de calcul. Or, même dans son état rudimentaire, cette vidéo dure environ trois minutes, soit, à 15 images par seconde, environ 2700 images, et même dans une définition aussi basse, chacune requiert déjà une dizaine de secondes de calculs (avec POV-Ray). C’est qu’avec son relief texturé, ses six bâtiments (dont un très complexe et détaillé) et les quelques autres fariboles qui l’agrémentent, cette scène comporte quand même quelque 50.000 triangles (correspondant d’ailleurs à plusieurs semaines de modélisation, mais c’est une autre histoire). Pour produire la même chose dans un standard de qualité contemporain, il faudrait que mon ordinateur tourne vingt fois plus longtemps que les sept heures de calcul que m’a demandées ce brouillon… donc ma machine serait monopolisée pendant plusieurs semaines. Je ne dis pas que je n’envisagerai jamais un tel investissement en temps… mais alors il faudra que le projet en vaille davantage la peine.

C’est égal, je ne suis pas mécontent du résultat, que je trouve franchement prometteur. Le principe général est le suivant: on met en place « manuellement » une série de caméras représentant des positions intermédiaires (au départ, je l’ai fait avec un petit utilitaire à moi — une moulinette –, mais j’ai ensuite affiné avec Blender), dont on note soigneusement les caractéristiques: coordonnées x, y, z, azimut, site (angle par rapport à l’horizontale) et éventuellement focale. Le nombre de ces « caméras de passage » est indifférent, mais pour mes 2700 images finales j’ai quand même dû en définir une quarantaine (et dans l’idéal, je devrais encore en ajouter une bonne douzaine). L’inventaire de ces données constitue un fichier de texte banal (sauf, bien sûr, que je m’astreins à respecter une certaine syntaxe, mais elle n’a rien de complexe), lequel sera bien sûr lu et exploité ultérieurement par une moulinette. En plus des coordonnées déjà relevées, j’y ajoute manuellement (et entièrement au pifomètre! mais c’est facile à retravailler) des indications de vitesse de déplacement (jusqu’à 300 km/h pour les vues générales, parfois pas plus de 2 km/h lorsque l’on est proche d’un objet).

Et tout cela étant fait, j’applique là-dessus mes super-pouvoirs de spécialiste des moulinettes: cette liste d’une cinquantaine de caméras seulement est démultipliée en un tournemain (par une technique d’interpolation par courbes de Bézier définies dans l’espace-temps, laquelle je me flatte d’avoir conçue à partir de rien et programmée de A à Z), et elle devient une liste exactement du même type (un autre fichier de texte avec la même syntaxe) mais contenant cette fois autant de positions intermédiaires qu’il y aura d’images produites au final (plusieurs milliers, donc). Il n’y a plus qu’à exploiter cette nouvelle liste avec une nouvelle moulinette (en fait, une série de moulinettes) pour obliger POV-Ray à la transformer en une série d’images, et hop, c’est parti pour plusieurs heures de calcul automatisé.

Enfin, tout à fait en aval, les images produites sont transformées en animation (d’abord au format AVI, puis MP4) par plusieurs logiciels libres (le couple mplayer-mencoder, plus un peu de fignolage avec Kdenlive pour l’ajout d’une bande-son et la compression en MP4). Et ça donne… le (très petit) chef-d’oeuvre que vous pouvez voir ci-dessus. Tout ça avec un ordinateur de bureau de modèle banal.

Dans l’idéal, il faudrait retravailler un peu tout ça pour réduire la durée de quelques transitions ennuyeuses et ajuster la fluidité de certains changements de direction. Il n’empêche que globalement, je suis assez content du résultat. Les mouvements de caméra sont presque toujours parfaitement fluides (quand par exception ils ne le sont pas, c’est dû à de mauvais choix de positions de passage, pas très compliqués à corriger), la caméra va à une vitesse folle quand il le faut, ralentit à mort quand il le faut, et même les passages où l’on se faufile au milieu de petits détails restent parfaitement compréhensibles (vous avez vu la traversée du petit chalet? et la montée de l’escalier? mmm? c’est pas top moumoute, ça?).

C’est pas pour me vanter, mais tout ça, ce n’est vraiment pas à la portée du premier pignouf venu… mais c’est possible pour un clampin tout seul à la seule condition que comme moi il ait appris à se servir d’Unix, de Python, de POV-Ray et de quelques autres logiciels libres moins connus. Le logiciel libre, c’est vraiment pas toujours simple… mais quand on sait s’en servir, pétard, ça dépote.

La résurrection des archives 3D

Alléluia, à force d’écrire des tonnes de moulinettes pour faciliter le traitement des vidéos, je me suis aperçu que je pouvais enfin ressusciter les petites animations 3D que j’ai concoctées de loin en loin depuis une dizaine d’années. Elles ont pourtant été faites avec des caractéristiques à tout le moins désuettes et hétéroclites (à l’époque d’Autodesk Animator, il n’était pas très réaliste d’espérer faire mieux que 320 x 240 pixels à une cadence de 15 images/seconde)… mais je ne suis pas le roi de la moulinette de conversion pour rien et j’ai fini par réussir à faire bouffer tout ça à deux logiciels libres: MEncoder et Kdenlive. D’accord, on a fait mieux depuis. Ca n’empêche pas que quand j’ai fait tout ça, j’étais fier comme un petit banc… et à vrai dire, je le suis resté. Nananère.

A la gloire de POV-Ray et de la trigo

La plupart des groupies de la 3D avec des logiciels libres se focalisent sur Blender et ignorent totalement POV-Ray, et moi, au contraire, je me suis presque tout de suite amusé comme un petit fou avec POV-Ray, alors que j’ai toujours trouvé Blender lourdingue et frustrant. A mon avis, la pierre d’achoppement entre ces deux merveilles informatiques, c’est la trigonométrie. Dès qu’on a compris le minimum minimorum de la trigo — le théorème de Pythagore, le sens des mots radian, sinus, cosinus et tangente, mais vraiment à peu près rien de plus –, eh bien aussitôt on fait presque tout ce qu’on veut avec POV-Ray; et ce qu’on ne sait pas faire tout de suite, on apprendra très vite à le faire parce que c’est amusant et que ça fait grésiller les neurones d’une façon vraiment très stimulante. En revanche, si on a décidé une bonne fois pour toutes qu’on était fâché à mort avec la trigo parce qu’elle fait mal à la tête, eh bien c’est râpé pour POV-Ray et il faut donc se rabattre sur les interminables manipulations avec les yeux et la souris — et c’est vrai que Blender convient assez bien pour ça. Mais pétard, qu’est-ce que c’est pas pratique et chronophage.

La 3D informatisée, avec Blender et sans

C’est qui, le chef, Blender ou moi?

La 3D informatisée est à mon sens un bon hobby pour zèbres, en tout cas c’est le mien depuis un bon paquet d’années et je ne suis pas le seul à le pratiquer. C’est rigolo tout plein, spécialement pour un surdoué, de réussir à transformer en images parfaitement lisibles par n’importe quel crétin des choses qui initialement n’ont existé que dans son cerveau intelligent (oui, ça va les chevilles, merci).

Ces trois superbes chaises, que vous pouvez comprendre même avec vos yeux de mecs qui ne connaissent rien à la 3D, ben elles n’ont d’abord existé que dans mon cerveau rien qu’à moi, et j’ai quand même le pouvoir de vous les faire voir. Nananère.

De nos jours, le surdoué moyen (et fauché) qui s’intéresse à la 3D a de fortes chances de s’essayer à devenir un groupie de Blender, le logiciel libre (et gratuit, même si ça ne veut pas dire la même chose) qui depuis plus d’une quinzaine d’années est censé faire tout et le reste dans le domaine de la 3D et de l’image de synthèse. De fait, le bazar est doté de possibilités impressionnantes en matière de modelage, de rendu et même d’animation; d’ailleurs YouTube est plein de courts métrages d’animation réalisés avec Blender, parfois par de vraies armées de techniciens du cinéma, le plus souvent par des équipes d’étudiants de l’enseignement supérieur, et parfois même par de simples clampins très intelligents et persévérants (non, je ne parle pas vraiment de moi: je n’ai rien produit de très convaincant, et le peu que j’ai produit, je l’ai fait avec d’autres logiciels).

L’écran de Blender tel que je le configure à ma sauce, genre « simple is beautiful », avec quelques vues de détail. Ceux qui « maîtrisent l’outil » sont susceptibles de choisir des configurations encore cinq fois plus complexes; ça vous donne une idée.

Avec Blender, ou tu as un très bon cerveau de surdoué, ou tu peux aller te rhabiller: le bazar est largement aussi complexe et emberlificoté qu’il est riche, et si son ergonomie n’est pas absurde, elle n’a absolument rien du tout d’intuitif, mais alors vraiment rien du tout et à un point consternant.

Blender, il faut très très longuement apprendre à s’en servir… ou le laisser tomber, ce que font 100 % des gens normaux et 95 % des surdoués qui s’y essaient. « Ca a l’air super mais j’y comprends rien » est de loin le commentaire le plus couramment émis par ceux qui ont essayé de s’y frotter.

Du coup, alors que les groupies du logiciel libre (je ne critique pas, j’en suis un) le présentent comme la huitième merveille du monde du septième art (surtout quand ils ne l’ont jamais manipulé d’ailleurs)… eh bien c’est un logiciel qui engendre nettement plus de déception que d’enthousiasme chez la plupart de ceux qui s’y frottent vraiment, fussent-ils surdoués. Je dis ça en pensant à moi mais je ne suis vraiment pas le seul. Il y a plus de dix ans que je manipule occasionnellement le bazar, je suis certes parvenu à faire pas mal de choses avec mais ça a toujours été à la marge de projets que pour l’essentiel je gérais avec d’autres outils informatiques que — moi au moins — je comprends nettement mieux et trouve plus faciles d’emploi…

Il se trouve que j’avais déjà beaucoup réfléchi à la 3D avant de me frotter à Blender, déjà fait pas mal de trucs pas si simples que ça (de la maquette d’architecture, en particulier), et que donc la toute première chose que j’ai demandée à Blender, ça a été de m’aider à reprendre et enrichir ce que j’avais déjà fait, de m’aider à retrouver des méthodes de travail équivalentes à celles que j’avais déjà eu du mal à mettre au point. Or, à peu près rien n’était prévu pour ça, et comme dit Beaumarchais, « sait-on gré du superflu à qui vous prive du nécessaire? »

L’une des choses les plus jolies que j’aie produites à ce jour en faisant mumuse avec mon Lego informatique: une maquette de la cathédrale de Cochabamba (Bolivie), à côté d’une photo de la vraie cathédrale. Montrez-moi que vous avez fait quelque chose d’une complexité comparable avant de m’expliquer que je n’y connais rien et que je m’y prends comme un manche…

J’attendais de Blender qu’il vienne seconder ce que mon cerveau savait déjà faire, et j’ai toujours eu au contraire l’impression très nette qu’avec Blender mon cerveau ne pouvait que seconder les développeurs de Blender dans ce qu’ils avaient décidé que je devais faire — sans jamais me demander mon avis.

Sont peut-être très intelligents, ces gens, mais je ne suis pas complètement couillon non plus et en tout cas je suis un homme libre, donc ce sont mes projets qui m’intéressent et pas ceux des développeurs de Blender, fussent-ils cinq fois plus intelligents que moi.

Nous avons en tout cas, eux et moi, une vraie et énorme différence de philosophie informatique: pour moi, un ordinateur, ça sert à exécuter des traitements automatisés qu’on définit soi-même, par exemple pour définir des motifs d’architecture; les outils graphiques qu’on manipule à la souris ne servent qu’à seconder ou enrichir à la marge le travail de conception de ces automatismes, qui sont le véritable exercice intellectuel enrichissant.

Pour les concepteurs de Blender, c’est tout le contraire: l’ordinateur sert à faciliter le travail manuel opéré avec les yeux et la main qui tient la souris, et la possibilité de définir des automatismes vient seulement seconder et enrichir à la marge le travail de conception graphique, sur lequel doivent porter l’essentiel des efforts.

Je ne dis pas que c’est là une philosophie absurde, mais ce n’est pas la mienne. Les concepteurs de Blender veulent qu’on travaille essentiellement avec les yeux et la souris, et que les branlettes informatiques pour l’automatisation n’interviennent qu’à la marge — et si elles pouvaient être totalement éliminées ce serait encore nettement mieux. Moi, c’est tout le contraire: ce qui m’éclate, ce sont les gamberges informatiques menant à des résultats abondants, hyper-minutieux et impeccables, tandis que les manipulations avec mes mimines malhabiles et mes yeux myopes de daltonien, ça ne peut intervenir qu’à la marge — et si ça pouvait carrément être éliminé j’aimerais encore mieux.

Je suis un surdoué, quoi, merde! Je me suis fait chier pendant des années à apprendre à écrire du code informatique, ce n’est pas pour me remettre à tout faire à la mimine en tirant la langue comme un gosse à la maternelle.

Des mondes 3D tout petits petits

Les possibilités qui font saliver le groupie de Blender moyen sont souvent des choses dont je me contrefous — même si j’admets qu’elles sont impressionnantes: les drapés, les liquides poisseux qui gouttent, les formes organiques couvertes de jolis poils soyeux. Tout ça, c’est très bien, mais ce n’est pas du tout ce que je veux faire. Moi, je fantasme plutôt sur des images d’architecture et d’urbanisme: par exemple, je voudrais représenter tous les immeubles de la perspective Nevski sur plusieurs kilomètres, et me balader là-dedans.

Image de démonstration des capacités de Blender, produite par Andrew Price, dit « Blender Guru » sur YouTube.

Pour le groupie de Blender, la 3D c’est d’abord le réalisme photographique. Pour moi, c’est d’abord la perspective, l’espace dans lequel on peut se déplacer à la vitesse de la pensée… la maquette traditionnelle, quoi, avec des petites maisons, des petits arbres, des petites bagnoles et des petits personnages, et autour de laquelle on tourne en la regardant sous tous les angles.

Un groupie de Blender est capable de consacrer plusieurs jours de travail à une scène de trois mètres de large représentant une bouteille de grenadine renversée sur une couverture en mohair ondulé et des draps de soie froissés, le tout à la lumière orangée d’un soleil couchant tropical se reflétant sur une mer tumultueuse. Bon, ben on a le droit d’aimer ça, mais moi j’en ai vraiment rien à battre. En revanche, j’aimerais bien représenter la bouteille de grenadine au premier plan sur une table de café, avec en arrière-plan la terrasse du café, la place principale de la ville avec des bagnoles garées tout autour, et encore plus loin des immeubles de six ou sept étages.

Ca ne me paraît pas particulièrement délirant comme ambition… mais Blender ne le permet pas vraiment, car il n’a pas été conçu pour gérer des objets de dimensions trop disproportionnées. On pourrait avec lui réussir à produire l’image en perspective que je fantasme, mais en trichant comme pour réaliser un décor de théâtre, c’est-à-dire en réduisant les proportions de ce qui est censé être placé à l’arrière-plan. En sorte que, comme au théâtre, ça ne peut faire illusion que si le spectateur reste bien sagement le cul sur son fauteuil ou en tout cas bouge très peu — car dès qu’il se déplace latéralement ne fût-ce que de quelques mètres il se rend compte que l’arrière-plan censé se trouver à Pétaouchnok est seulement un modèle réduit placé un peu en retrait.

Tentative (vaine) pour représenter sur la même scène avec Blender des objets pas plus disproportionnés que des meubles et des immeubles: au-delà d’une certaine distance pas très considérable, des objets pourtant très massifs ne sont carrément plus affichés.

Dans la vraie vie, avec la perspective et la profondeur de champ, même le plus couillon des photographes est capable de prendre une photo d’un chaton de moins de 30 cm de large et occupant quand même la moitié d’une image sur laquelle on distingue en arrière-plan le Mont-Blanc 4807 m. Eh bien, pour faire ça avec Blender, il faudra comme au théâtre placer un Mont-Blanc tout petit rikiki beaucoup moins loin, sur l’arrière-scène. Sur une image fixe, ça fait le même effet et c’est tout ce qui compte dans la philosophie de Blender. Mais pour moi qui aime me balader à toute vitesse dans des scènes virtuelles immenses, c’est terriblement frustrant.

Un petit chaton et une perspective ouverte sur des formes complexes, amples et d’une grâce infinie (photo de David Olkarny, utilisée sans autorisation mais merci quand même).

Je m’en tape du réalisme, je veux de la perspective

Un truc que j’aime beaucoup faire: poser des objets de tailles disparates sur un fond de carte, tout représenter à l’échelle de la carte, et laisser la perspective faire son effet magique (au besoin avec le secours de mon imagination de grand gosse). C’est très facile à faire avec Povray, y compris sur des scènes de plusieurs kilomètres de large; et hélas, c’est complètement ingérable avec Blender.

Pourquoi est-ce que je vous raconte tout ça? Je ne sais pas trop… Peut-être pour entamer une série à épisodes consacrée à la maquette en 3D, peut-être simplement pour décharger ma bile sur Blender avec qui j’entretiens des relations d’amour-haine… M’enfin je ne suis peut-être pas absolument le seul à m’intéresser à ce sujet et, comme diraient Dutronc-Lanzmann, « si vous êtes comme ça, téléphonez-moi »…

Le dixième de seconde, seuil fatidique pour les bandes sonores

En dépit de tout le soin que je prends, il m’arrive encore de constater des problèmes de synchronisation avec les vidéos où j’effectue des coupes et des montages. A la louche, j’ai le sentiment qu’un problème de synchronisation peut être constaté dès que le décalage entre le son et l’image atteint un dixième de seconde, ce qui est vraiment très peu.

Pour donner un exemple concret et réel, si un montage met bout à bout sans les retravailler des séquences tournées à 29.97 et à 30 images/seconde en unifiant tout à l’une de ces deux valeurs (il s’agit de deux cadences hélas réellement employées, et de façon très courante, dans le monde de la vidéo informatisée; ça s’explique par des raisons historiques que je ne vais pas développer ici), alors le décalage avec le son deviendra insupportable 100 secondes seulement après l’apparition de la cadence erronée, c’est-à-dire au bout de seulement 1 min 40 sec de diffusion; vous imaginez l’effet désastreux sur une vidéo de vingt minutes — et j’ai déjà vu ça dans le petit monde du logiciel libre, quand des libristes intégristes tiennent absolument à diffuser leurs vidéos au format Ogg Theora: il n’est alors pas rare du tout qu’au bout de cinq minutes de vidéo le commentaire n’ait plus aucun rapport avec l’image; et personnellement, ça me rend fou.

Dans le cas des vidéos que je prends avec ma tablette Lenovo de bas de gamme, la cadence de 30 images/seconde est remplacée par une cadence bâtarde de 29.7 images/seconde (à peu près, j’ai déterminé ça empiriquement et je ne tombe jamais exactement sur la même valeur); ne me demandez pas pourquoi, j’ignore la raison de cette bizarrerie; soit c’est en rapport avec la vitesse du processeur, soit c’est une limitation volontaire imposée par le fabricant pour justifier des écarts de prix avec des modèles de haut de gamme sortis des mêmes usines (le marketing est très capable d’inventer de telles ignominies).

Bref. Si je diffuse à 30 images/seconde, sans la retravailler, une séquence capturée avec ma tablette à 29.7 images/seconde, le décalage entre le son et l’image va devenir sensible au bout de… seulement une dizaine de secondes.

Cela dit, tant que ce décalage est inférieur ou égal à 1/10e de seconde, on peut le considérer comme supportable: on constate certes qu’il y a un petit problème de synchronisation, mais dans la plupart des cas on est incapable de dire si le son arrive en avance ou en retard; ça irrite un peu mais ça n’exaspère pas, ça déconcentre un peu mais pas au point de rendre le commentaire audio inaudible ou inintéressant: après tout, de tels problèmes sont systématiques sur les films doublés, et on en fait quand même très vite abstraction.

Hélas, le stade où ces imperfections techniques deviennent insupportables existe aussi, il est placé un peu plus haut mais il est quand même très bas: je le crois inférieur à deux dixièmes de seconde: vraiment, ce n’est pas beaucoup. Je pense qu’il est atteint dès que le spectateur anticipe sans jamais se tromper que le son va arriver après ce qu’il voit, ou que l’image va correspondre au son après qu’il aura été entendu; car alors, le caractère absolument systématique et omniprésent du décalage donne un sentiment d’artificialité vraiment trop fort et fait mécaniquement décrocher l’attention.

C’est comme ça! Pas la peine de se lamenter sur le caractère superficiel de l’attention humaine, notre cerveau fonctionne ainsi. Donc, à défaut de parvenir à une synchronisation parfaite, il faut maintenir le caractère décelable du décalage au-dessous du seuil du dixième de seconde où le cerveau est capable d’assurer que le son arrive en avance ou en retard; ou, pour le dire autrement, dès qu’on se rend compte en visionnant la vidéo que le son arrive en avance, il faut retravailler la bande sonore (sous Audacity) pour le retarder de deux dixièmes de seconde; et symétriquement, dès qu’on se rend compte que le son arrive en retard, il faut le faire arriver deux dixièmes de seconde plus tôt, grâce à l’édition de la bande sonore.

Supposons que le son arrive en avance de 0.12 seconde. L’idéal, bien sûr, serait de le retarder exactement de cette durée, mais il est excessivement difficile de la mesurer, et la corriger par tâtonnements serait épuisant voire impossible. Donc, une fois que l’on a acquis la certitude que le son arrive en avance (donc en avance de plus du « seuil de décelabilité », si j’ose dire, lequel seuil vaut presque 0.1 seconde), on retarde l’arrivée du son, arbitrairement, de 0.2 seconde exactement. Calculons: 0.12 – 0.20 = – 0.08, et on aboutit donc à un décalage dont la valeur absolue redevient inférieure au seuil de décelabilité d’un dixième de seconde — de sorte que, même si on remarque encore son existence (hélas), il n’est plus possible d’assurer s’il se produit en avance ou en retard; alors le cerveau oublie ce problème (d’ailleurs totalement inintéressant) et peut à nouveau se concentrer sur le fond.

En l’état actuel de la technique, je ne crois pas possible de faire mieux, et ça devrait être suffisant pour éviter que le spectateur-auditeur « décroche ».

Vingt minutes pour nettoyer 250 pages

L’exercice peut paraître un peu gratuit, mais cela va suffire à vous donner une idée de ma façon de travailler: pour nettoyer minutieusement un texte pourtant long de plusieurs dizaines de pages (le Hamlet de Shakespeare, pas moins!), il peut suffire de quelques minutes… à la condition de s’être doté, comme moi, de quelques moulinettes de traitement – et surtout de savoir s’en servir.