Bon, qui aime bien châtie bien: j’ai déjà consacré assez d’énergie à dire du mal du moteur de rendu de Blender pour concéder qu’il a pour lui un argument massue: l’extrême brièveté de ses temps de réponse. Quand j’avais produit avec POV-Ray l’animation que vous pouvez voir ci-dessus, ça m’avait pris sept heures, avec dix fois moins de pixels, donc pour une qualité similaire à ce que vous voyez il m’aurait fallu environ 70 heures. Eh bien, maintenant que j’ai compris comment manipuler Python dans Blender, je lui ai fait refaire la même quantité d’images dans une meilleure définition. Les cadrages et la fréquence des images sont absolument inchangés: j’ai fait lire et convertir à Blender, grâce à un script Python, les très longues listes de paramétrages qui m’avaient servi pour l’animation POV-Ray, et que j’avais conservées. Soit dit en passant, la possibilité de faire tourner Python dans Blender, et surtout de faire varier sa configuration grâce à des fichiers de paramétrages calculés hors de son interface immondément pas pratique… ça change complètement la vie, et Blender passe immédiatement grâce à cela du statut d’épouvantable usine à gaz à celui de logiciel surpuissant et indispensable.
Bref. Ce nouveau calcul de l’animation m’a pris trois quarts d’heure, c’est-à-dire… environ 90 fois moins de temps que le travail équivalent avec POV-Ray. Honnêtement, même si Blender oblige à être beaucoup plus soigneux pour obtenir des images lisibles, je dois admettre que cela me fait pratiquement renvoyer POV-Ray aux oubliettes, au moins pour les calculs d’animation — POV-Ray reste intéressant pour le calcul d’images fixes très fouillées.
Par ailleurs, Blender permet aussi d’effectuer des prévisualisations de l’animation directement à la vitesse de diffusion du rendu final, et même si c’est avec un rendu très médiocre, c’est bien sûr une bénédiction quand on travaille au brouillon.
Cela dit, il est clair que Blender obtient ces temps de réponse enthousiasmants en rognant très considérablement sur la précision de ses calculs, et cela peut engendrer de vrais problèmes de lisibilité quand des surfaces superposées sont assez proches. Sur la vidéo que vous regardez, vous constaterez probablement des tas de petites saletés dans l’affichage du quadrillage, et notamment à ses intersections: en fait, quand plusieurs surfaces sont définies à peu près au même endroit (le quadrillage est très proche du sol, et là où les lignes se croisent, elles sont placées exactement au même niveau), alors Blender a tendance à penser qu’une surface projette des ombres sur l’autre, mais surtout, et c’est beaucoup plus grave, il lui arrive d’afficher l’ombre par-dessus la surface qui est censée lui donner naissance! Dans certains cas de figure, cela rend vraiment l’image immondément illisible, et cela force donc ou à renoncer à certains cadrages, ou à devoir considérablement retravailler les objets de la scène pour éliminer de telles superpositions.