La résurrection des archives 3D

Alléluia, à force d’écrire des tonnes de moulinettes pour faciliter le traitement des vidéos, je me suis aperçu que je pouvais enfin ressusciter les petites animations 3D que j’ai concoctées de loin en loin depuis une dizaine d’années. Elles ont pourtant été faites avec des caractéristiques à tout le moins désuettes et hétéroclites (à l’époque d’Autodesk Animator, il n’était pas très réaliste d’espérer faire mieux que 320 x 240 pixels à une cadence de 15 images/seconde)… mais je ne suis pas le roi de la moulinette de conversion pour rien et j’ai fini par réussir à faire bouffer tout ça à deux logiciels libres: MEncoder et Kdenlive. D’accord, on a fait mieux depuis. Ca n’empêche pas que quand j’ai fait tout ça, j’étais fier comme un petit banc… et à vrai dire, je le suis resté. Nananère.

A la gloire de POV-Ray et de la trigo

La plupart des groupies de la 3D avec des logiciels libres se focalisent sur Blender et ignorent totalement POV-Ray, et moi, au contraire, je me suis presque tout de suite amusé comme un petit fou avec POV-Ray, alors que j’ai toujours trouvé Blender lourdingue et frustrant. A mon avis, la pierre d’achoppement entre ces deux merveilles informatiques, c’est la trigonométrie. Dès qu’on a compris le minimum minimorum de la trigo — le théorème de Pythagore, le sens des mots radian, sinus, cosinus et tangente, mais vraiment à peu près rien de plus –, eh bien aussitôt on fait presque tout ce qu’on veut avec POV-Ray; et ce qu’on ne sait pas faire tout de suite, on apprendra très vite à le faire parce que c’est amusant et que ça fait grésiller les neurones d’une façon vraiment très stimulante. En revanche, si on a décidé une bonne fois pour toutes qu’on était fâché à mort avec la trigo parce qu’elle fait mal à la tête, eh bien c’est râpé pour POV-Ray et il faut donc se rabattre sur les interminables manipulations avec les yeux et la souris — et c’est vrai que Blender convient assez bien pour ça. Mais pétard, qu’est-ce que c’est pas pratique et chronophage.

La 3D informatisée, avec Blender et sans

C’est qui, le chef, Blender ou moi?

La 3D informatisée est à mon sens un bon hobby pour zèbres, en tout cas c’est le mien depuis un bon paquet d’années et je ne suis pas le seul à le pratiquer. C’est rigolo tout plein, spécialement pour un surdoué, de réussir à transformer en images parfaitement lisibles par n’importe quel crétin des choses qui initialement n’ont existé que dans son cerveau intelligent (oui, ça va les chevilles, merci).

Ces trois superbes chaises, que vous pouvez comprendre même avec vos yeux de mecs qui ne connaissent rien à la 3D, ben elles n’ont d’abord existé que dans mon cerveau rien qu’à moi, et j’ai quand même le pouvoir de vous les faire voir. Nananère.

De nos jours, le surdoué moyen (et fauché) qui s’intéresse à la 3D a de fortes chances de s’essayer à devenir un groupie de Blender, le logiciel libre (et gratuit, même si ça ne veut pas dire la même chose) qui depuis plus d’une quinzaine d’années est censé faire tout et le reste dans le domaine de la 3D et de l’image de synthèse. De fait, le bazar est doté de possibilités impressionnantes en matière de modelage, de rendu et même d’animation; d’ailleurs YouTube est plein de courts métrages d’animation réalisés avec Blender, parfois par de vraies armées de techniciens du cinéma, le plus souvent par des équipes d’étudiants de l’enseignement supérieur, et parfois même par de simples clampins très intelligents et persévérants (non, je ne parle pas vraiment de moi: je n’ai rien produit de très convaincant, et le peu que j’ai produit, je l’ai fait avec d’autres logiciels).

L’écran de Blender tel que je le configure à ma sauce, genre « simple is beautiful », avec quelques vues de détail. Ceux qui « maîtrisent l’outil » sont susceptibles de choisir des configurations encore cinq fois plus complexes; ça vous donne une idée.

Avec Blender, ou tu as un très bon cerveau de surdoué, ou tu peux aller te rhabiller: le bazar est largement aussi complexe et emberlificoté qu’il est riche, et si son ergonomie n’est pas absurde, elle n’a absolument rien du tout d’intuitif, mais alors vraiment rien du tout et à un point consternant.

Blender, il faut très très longuement apprendre à s’en servir… ou le laisser tomber, ce que font 100 % des gens normaux et 95 % des surdoués qui s’y essaient. « Ca a l’air super mais j’y comprends rien » est de loin le commentaire le plus couramment émis par ceux qui ont essayé de s’y frotter.

Du coup, alors que les groupies du logiciel libre (je ne critique pas, j’en suis un) le présentent comme la huitième merveille du monde du septième art (surtout quand ils ne l’ont jamais manipulé d’ailleurs)… eh bien c’est un logiciel qui engendre nettement plus de déception que d’enthousiasme chez la plupart de ceux qui s’y frottent vraiment, fussent-ils surdoués. Je dis ça en pensant à moi mais je ne suis vraiment pas le seul. Il y a plus de dix ans que je manipule occasionnellement le bazar, je suis certes parvenu à faire pas mal de choses avec mais ça a toujours été à la marge de projets que pour l’essentiel je gérais avec d’autres outils informatiques que — moi au moins — je comprends nettement mieux et trouve plus faciles d’emploi…

Il se trouve que j’avais déjà beaucoup réfléchi à la 3D avant de me frotter à Blender, déjà fait pas mal de trucs pas si simples que ça (de la maquette d’architecture, en particulier), et que donc la toute première chose que j’ai demandée à Blender, ça a été de m’aider à reprendre et enrichir ce que j’avais déjà fait, de m’aider à retrouver des méthodes de travail équivalentes à celles que j’avais déjà eu du mal à mettre au point. Or, à peu près rien n’était prévu pour ça, et comme dit Beaumarchais, « sait-on gré du superflu à qui vous prive du nécessaire? »

L’une des choses les plus jolies que j’aie produites à ce jour en faisant mumuse avec mon Lego informatique: une maquette de la cathédrale de Cochabamba (Bolivie), à côté d’une photo de la vraie cathédrale. Montrez-moi que vous avez fait quelque chose d’une complexité comparable avant de m’expliquer que je n’y connais rien et que je m’y prends comme un manche…

J’attendais de Blender qu’il vienne seconder ce que mon cerveau savait déjà faire, et j’ai toujours eu au contraire l’impression très nette qu’avec Blender mon cerveau ne pouvait que seconder les développeurs de Blender dans ce qu’ils avaient décidé que je devais faire — sans jamais me demander mon avis.

Sont peut-être très intelligents, ces gens, mais je ne suis pas complètement couillon non plus et en tout cas je suis un homme libre, donc ce sont mes projets qui m’intéressent et pas ceux des développeurs de Blender, fussent-ils cinq fois plus intelligents que moi.

Nous avons en tout cas, eux et moi, une vraie et énorme différence de philosophie informatique: pour moi, un ordinateur, ça sert à exécuter des traitements automatisés qu’on définit soi-même, par exemple pour définir des motifs d’architecture; les outils graphiques qu’on manipule à la souris ne servent qu’à seconder ou enrichir à la marge le travail de conception de ces automatismes, qui sont le véritable exercice intellectuel enrichissant.

Pour les concepteurs de Blender, c’est tout le contraire: l’ordinateur sert à faciliter le travail manuel opéré avec les yeux et la main qui tient la souris, et la possibilité de définir des automatismes vient seulement seconder et enrichir à la marge le travail de conception graphique, sur lequel doivent porter l’essentiel des efforts.

Je ne dis pas que c’est là une philosophie absurde, mais ce n’est pas la mienne. Les concepteurs de Blender veulent qu’on travaille essentiellement avec les yeux et la souris, et que les branlettes informatiques pour l’automatisation n’interviennent qu’à la marge — et si elles pouvaient être totalement éliminées ce serait encore nettement mieux. Moi, c’est tout le contraire: ce qui m’éclate, ce sont les gamberges informatiques menant à des résultats abondants, hyper-minutieux et impeccables, tandis que les manipulations avec mes mimines malhabiles et mes yeux myopes de daltonien, ça ne peut intervenir qu’à la marge — et si ça pouvait carrément être éliminé j’aimerais encore mieux.

Je suis un surdoué, quoi, merde! Je me suis fait chier pendant des années à apprendre à écrire du code informatique, ce n’est pas pour me remettre à tout faire à la mimine en tirant la langue comme un gosse à la maternelle.

Des mondes 3D tout petits petits

Les possibilités qui font saliver le groupie de Blender moyen sont souvent des choses dont je me contrefous — même si j’admets qu’elles sont impressionnantes: les drapés, les liquides poisseux qui gouttent, les formes organiques couvertes de jolis poils soyeux. Tout ça, c’est très bien, mais ce n’est pas du tout ce que je veux faire. Moi, je fantasme plutôt sur des images d’architecture et d’urbanisme: par exemple, je voudrais représenter tous les immeubles de la perspective Nevski sur plusieurs kilomètres, et me balader là-dedans.

Image de démonstration des capacités de Blender, produite par Andrew Price, dit « Blender Guru » sur YouTube.

Pour le groupie de Blender, la 3D c’est d’abord le réalisme photographique. Pour moi, c’est d’abord la perspective, l’espace dans lequel on peut se déplacer à la vitesse de la pensée… la maquette traditionnelle, quoi, avec des petites maisons, des petits arbres, des petites bagnoles et des petits personnages, et autour de laquelle on tourne en la regardant sous tous les angles.

Un groupie de Blender est capable de consacrer plusieurs jours de travail à une scène de trois mètres de large représentant une bouteille de grenadine renversée sur une couverture en mohair ondulé et des draps de soie froissés, le tout à la lumière orangée d’un soleil couchant tropical se reflétant sur une mer tumultueuse. Bon, ben on a le droit d’aimer ça, mais moi j’en ai vraiment rien à battre. En revanche, j’aimerais bien représenter la bouteille de grenadine au premier plan sur une table de café, avec en arrière-plan la terrasse du café, la place principale de la ville avec des bagnoles garées tout autour, et encore plus loin des immeubles de six ou sept étages.

Ca ne me paraît pas particulièrement délirant comme ambition… mais Blender ne le permet pas vraiment, car il n’a pas été conçu pour gérer des objets de dimensions trop disproportionnées. On pourrait avec lui réussir à produire l’image en perspective que je fantasme, mais en trichant comme pour réaliser un décor de théâtre, c’est-à-dire en réduisant les proportions de ce qui est censé être placé à l’arrière-plan. En sorte que, comme au théâtre, ça ne peut faire illusion que si le spectateur reste bien sagement le cul sur son fauteuil ou en tout cas bouge très peu — car dès qu’il se déplace latéralement ne fût-ce que de quelques mètres il se rend compte que l’arrière-plan censé se trouver à Pétaouchnok est seulement un modèle réduit placé un peu en retrait.

Tentative (vaine) pour représenter sur la même scène avec Blender des objets pas plus disproportionnés que des meubles et des immeubles: au-delà d’une certaine distance pas très considérable, des objets pourtant très massifs ne sont carrément plus affichés.

Dans la vraie vie, avec la perspective et la profondeur de champ, même le plus couillon des photographes est capable de prendre une photo d’un chaton de moins de 30 cm de large et occupant quand même la moitié d’une image sur laquelle on distingue en arrière-plan le Mont-Blanc 4807 m. Eh bien, pour faire ça avec Blender, il faudra comme au théâtre placer un Mont-Blanc tout petit rikiki beaucoup moins loin, sur l’arrière-scène. Sur une image fixe, ça fait le même effet et c’est tout ce qui compte dans la philosophie de Blender. Mais pour moi qui aime me balader à toute vitesse dans des scènes virtuelles immenses, c’est terriblement frustrant.

Un petit chaton et une perspective ouverte sur des formes complexes, amples et d’une grâce infinie (photo de David Olkarny, utilisée sans autorisation mais merci quand même).

Je m’en tape du réalisme, je veux de la perspective

Un truc que j’aime beaucoup faire: poser des objets de tailles disparates sur un fond de carte, tout représenter à l’échelle de la carte, et laisser la perspective faire son effet magique (au besoin avec le secours de mon imagination de grand gosse). C’est très facile à faire avec Povray, y compris sur des scènes de plusieurs kilomètres de large; et hélas, c’est complètement ingérable avec Blender.

Pourquoi est-ce que je vous raconte tout ça? Je ne sais pas trop… Peut-être pour entamer une série à épisodes consacrée à la maquette en 3D, peut-être simplement pour décharger ma bile sur Blender avec qui j’entretiens des relations d’amour-haine… M’enfin je ne suis peut-être pas absolument le seul à m’intéresser à ce sujet et, comme diraient Dutronc-Lanzmann, « si vous êtes comme ça, téléphonez-moi »…

Le dixième de seconde, seuil fatidique pour les bandes sonores

En dépit de tout le soin que je prends, il m’arrive encore de constater des problèmes de synchronisation avec les vidéos où j’effectue des coupes et des montages. A la louche, j’ai le sentiment qu’un problème de synchronisation peut être constaté dès que le décalage entre le son et l’image atteint un dixième de seconde, ce qui est vraiment très peu.

Pour donner un exemple concret et réel, si un montage met bout à bout sans les retravailler des séquences tournées à 29.97 et à 30 images/seconde en unifiant tout à l’une de ces deux valeurs (il s’agit de deux cadences hélas réellement employées, et de façon très courante, dans le monde de la vidéo informatisée; ça s’explique par des raisons historiques que je ne vais pas développer ici), alors le décalage avec le son deviendra insupportable 100 secondes seulement après l’apparition de la cadence erronée, c’est-à-dire au bout de seulement 1 min 40 sec de diffusion; vous imaginez l’effet désastreux sur une vidéo de vingt minutes — et j’ai déjà vu ça dans le petit monde du logiciel libre, quand des libristes intégristes tiennent absolument à diffuser leurs vidéos au format Ogg Theora: il n’est alors pas rare du tout qu’au bout de cinq minutes de vidéo le commentaire n’ait plus aucun rapport avec l’image; et personnellement, ça me rend fou.

Dans le cas des vidéos que je prends avec ma tablette Lenovo de bas de gamme, la cadence de 30 images/seconde est remplacée par une cadence bâtarde de 29.7 images/seconde (à peu près, j’ai déterminé ça empiriquement et je ne tombe jamais exactement sur la même valeur); ne me demandez pas pourquoi, j’ignore la raison de cette bizarrerie; soit c’est en rapport avec la vitesse du processeur, soit c’est une limitation volontaire imposée par le fabricant pour justifier des écarts de prix avec des modèles de haut de gamme sortis des mêmes usines (le marketing est très capable d’inventer de telles ignominies).

Bref. Si je diffuse à 30 images/seconde, sans la retravailler, une séquence capturée avec ma tablette à 29.7 images/seconde, le décalage entre le son et l’image va devenir sensible au bout de… seulement une dizaine de secondes.

Cela dit, tant que ce décalage est inférieur ou égal à 1/10e de seconde, on peut le considérer comme supportable: on constate certes qu’il y a un petit problème de synchronisation, mais dans la plupart des cas on est incapable de dire si le son arrive en avance ou en retard; ça irrite un peu mais ça n’exaspère pas, ça déconcentre un peu mais pas au point de rendre le commentaire audio inaudible ou inintéressant: après tout, de tels problèmes sont systématiques sur les films doublés, et on en fait quand même très vite abstraction.

Hélas, le stade où ces imperfections techniques deviennent insupportables existe aussi, il est placé un peu plus haut mais il est quand même très bas: je le crois inférieur à deux dixièmes de seconde: vraiment, ce n’est pas beaucoup. Je pense qu’il est atteint dès que le spectateur anticipe sans jamais se tromper que le son va arriver après ce qu’il voit, ou que l’image va correspondre au son après qu’il aura été entendu; car alors, le caractère absolument systématique et omniprésent du décalage donne un sentiment d’artificialité vraiment trop fort et fait mécaniquement décrocher l’attention.

C’est comme ça! Pas la peine de se lamenter sur le caractère superficiel de l’attention humaine, notre cerveau fonctionne ainsi. Donc, à défaut de parvenir à une synchronisation parfaite, il faut maintenir le caractère décelable du décalage au-dessous du seuil du dixième de seconde où le cerveau est capable d’assurer que le son arrive en avance ou en retard; ou, pour le dire autrement, dès qu’on se rend compte en visionnant la vidéo que le son arrive en avance, il faut retravailler la bande sonore (sous Audacity) pour le retarder de deux dixièmes de seconde; et symétriquement, dès qu’on se rend compte que le son arrive en retard, il faut le faire arriver deux dixièmes de seconde plus tôt, grâce à l’édition de la bande sonore.

Supposons que le son arrive en avance de 0.12 seconde. L’idéal, bien sûr, serait de le retarder exactement de cette durée, mais il est excessivement difficile de la mesurer, et la corriger par tâtonnements serait épuisant voire impossible. Donc, une fois que l’on a acquis la certitude que le son arrive en avance (donc en avance de plus du « seuil de décelabilité », si j’ose dire, lequel seuil vaut presque 0.1 seconde), on retarde l’arrivée du son, arbitrairement, de 0.2 seconde exactement. Calculons: 0.12 – 0.20 = – 0.08, et on aboutit donc à un décalage dont la valeur absolue redevient inférieure au seuil de décelabilité d’un dixième de seconde — de sorte que, même si on remarque encore son existence (hélas), il n’est plus possible d’assurer s’il se produit en avance ou en retard; alors le cerveau oublie ce problème (d’ailleurs totalement inintéressant) et peut à nouveau se concentrer sur le fond.

En l’état actuel de la technique, je ne crois pas possible de faire mieux, et ça devrait être suffisant pour éviter que le spectateur-auditeur « décroche ».

Vingt minutes pour nettoyer 250 pages

L’exercice peut paraître un peu gratuit, mais cela va suffire à vous donner une idée de ma façon de travailler: pour nettoyer minutieusement un texte pourtant long de plusieurs dizaines de pages (le Hamlet de Shakespeare, pas moins!), il peut suffire de quelques minutes… à la condition de s’être doté, comme moi, de quelques moulinettes de traitement – et surtout de savoir s’en servir.