Photo Acute Studio : le multi-échantillonnage à la prise de vue – première partie
Publié le 17 novembre 2009 dans Articles et dossiers par Volker Gilbert
Technique couramment utilisée pour la numérisation des négatifs et diapositives argentiques, le multi-échantillonage vise à éliminer ou atténuer le bruit aléatoire. En effectuant plusieurs passages (balayages), la numérisation par multi-échantillonage augmente la rapport signal-bruit et promet ainsi des transitions beaucoup plus douces entre les couleurs et une texture du bruit bien plus discrète.
Technique couramment utilisée pour la numérisation des négatifs et diapositives argentiques, le multi-échantillonage vise à éliminer ou atténuer le bruit aléatoire. En effectuant plusieurs passages (balayages), la numérisation par multi-échantillonage augmente la rapport signal-bruit et promet ainsi des transitions beaucoup plus douces entre les couleurs et une texture du bruit bien plus discrète. Plus le nombre de passages est important, plus le bruit sera dominé par le signal et plus il sera atténué dans l’image.
Cependant, l’avantage de cette technique est tout relatif avec un scanner moderne et performant – avec un Nikon LS 5000 ED, le gain justifie pas toujours la durée de numérisation, multipliée par le nombre de passages.
En prise de vue numérique, cette technique est encore assez peu répandue et on pourrait s’interroger sur son utilité. Les processeurs des appareils et les logiciels de développement ont fait d’importants progrès ces dernières années pour nettoyer le bruit des images prises aux sensibilités ISO les plus élevées. DxO Optics Pro, pour ne citer que lui, est particulièrement efficace dans cet exercice qui nécessite de puissants algorithmes et calculs mathématiques.
Suffit-il alors de traiter ses images prises aux sensibilités ISO élevées (le marketing des fabricants d’appareils photo pousse par ailleurs les photographes à utiliser ces dernières) pour retrouver une qualité d’image proche de celle obtenue aux sensibilités ISO de base ? Malheureusement, la réponse est non. La magie n’opère pas : hormis un lissage parfois important des petits détails, les images prises aux sensibilités les plus élevées souffrent d’une plage dynamique réduite (notamment dans les tons foncés où on constate une perte de nuances) et de bruit résiduel qui se manifeste le plus souvent par une pollution des aplats par des taches colorées. De plus, les logiciels de développement RAW les plus sophistiqués ne parviennent pas à complètement résoudre les problèmes cités, bien qu’ils procèdent à d’habiles subterfuges pour en cacher les aspects les plus néfastes, notamment par une désaturation des couleurs pour réduire le bruit coloré et l’application d’une courbe pour maquiller le bruit dans les tons les plus foncés.
Avis de tempête au parc de Sceaux. Les petites taches sur la photo ne sont pas des poussières sur le capteur, mais des feuilles balayées par le vent…
Depuis quelque temps déjà, les spécialistes en traitement de signal s’intéressent à la super-résolution, ensemble de technologies s’appuyant notamment sur l’analyse d’une séquence d’images pour en créer une image de résolution plus élevée dont le rapport signal-bruit est grandement amélioré. A ce jour, peu de logiciels l’exploitent et encore moins nombreux sont ceux qui peuvent traiter des fichiers RAW. J’avais présenté ici Photo Acute Studio, véritable couteau suisse (hélas très sous-estimé) qui rend d’excellents services pour créer une image améliorée (plage dynamique, taille et/ou profondeur de champ) à partir d’une série d’images prises à intervalles très rapprochées.
Cet article est très intéressant. Que donne en paysage les variations entre les images du feuillage par exemple? Sur le cliché du parc de Sceaux on ne peut se rendre compte. Ca donne un flou?
Cordialement
Humm, humm, humm
Toutes les images de studio prises sur pieds sont sans interet, car sur un sujet fixe comme celui-ci on ne se mettra jamais à autre chose que la sensibilité minimum, et on augmentera le temps de pause…
A main levée, sur sujet fixe (comme la derniere page), le problème viendra uniquement d’un ajustement des vues, problème connu depuis longtemps avec les logiciels de HDR: ce logiciel est peut-être un peu meilleur à aligner les vues que PS, mais on ne le sait pas avec ce comparatif.
Dans tous les cas, l’introduction est à mon avis largement abusive car ces techniques ne remplaceront jamais les hautes sensibilités de qualité, car justement ça ne marche pas pour les sujets mobiles (tout comme les pauses lentes sur trèpied), et qu’en plus on ne peut pas passer son temps à post-traiter tout ce qu’on ne peut pas faire simplement.
=> imaginez qu’on fasse un panoramique par assemblage de 2 lignes de 6 vues verticales, que pour chaque vue on prenne 3 expositions pour la dynamique et que chaque exposition soit prise 5x (vous montez à 10 RAWs traités).
Ca fait 180 déclenchements, 36 « assemblages antibruit », 12 HDR, correction de la distortion des 12 résultats et un montage en pano sur lequel on va redresser la perspective… heureusement que je n’ai pas multiplié les vues pour la profondeur de champ!!!
Si je prends goût au pano géants, j’ai vite rentabilisé le 6×17 (argentique ou numérique) avec objectif à décentrement ;))
@chti_bobo : comme vous avez peut-être remarqué (peut-être pas), il s’agit de la première partie d’un article, une deuxième reste donc à venir avec des conclusions… donc pas de conclusion hâtive et trop rapide !
« Toutes les images de studio prises sur pieds sont sans interet, car sur un sujet fixe comme celui-ci on ne se mettra jamais à autre chose que la sensibilité minimum, et on augmentera le temps de pause… »
Bien évidemment, mais là il s’agit d’étudier la réduction du bruit par rapport à un logiciel de développement RAW et une seule image 😉
Un peu de stat/proba 😉 :
Si l’on suppose que le bruit est aléatoire et distribué selon une gaussienne, alors, le rapport signal/bruit de la moyenne de n images augmentera dans le rapport racine carrée (n).
D’où l’intérêt de base du processus présenté par Volker.
J’allais faire les mêmes remarques que chti_bobo… mais je vais me taire 😉
Perso j’avais testé le soft pour voir ce que donnait le traitement « super-résolution ». Ça ne m’avait pas emballé plus que ça. La correction de la distorsion et l’alignement d’images décalées d’un nombre non-entier de pixels doit bouffer un peu de la résolution des images, donc le gain final n’est pas évident.
on y comprend rien
plusieurs prises de vues quoi comment ? quels réglages ? les mêmes ?
tel quel ça n’a aucun sens
@jehanon : la suite et la conclusion se trouvent ici : http://www.questionsphoto.com/article/356-photo-acute-studio-le-multi-echantillonnage-a-la-prise-de-vue-deuxieme-et-derniere-partie
pour les prises de vue, on répète simplement les mêmes réglages sur toutes les photos, pour le reste, les articles, lus attentivement, vous donneront sans doute des informations suffisamment précises 😉