Le RAW, définition, utilisation et workflow.

Article écrit le 21 Juillet 2007, publié précédemment sur le site www.nicolasgenette.com

Avant de se demander comment développer un raw et mettre en place un worflow pour photographier systématiquement en raw, commençons par le définir et mieux comprendre si on en a besoin … ou pas ! Désolé, mais il va falloir un peu de technique…

• Entre le capteur et le fichier …

Bayer patternLa plupart des capteurs d’appareil photo numérique sont construit selon une matrice de Bayer. En effet, un même photosite ne peux pas voir les couleurs, mais seulement des photons. Ainsi, il faut filtrer les couleurs sur plusieurs photosites, et les reconstruire ensuite en intégrant les photosites adjacents pour former l’image. La luminosité, elle, est captée par tout les photosites (intensité lumineuse, ou nombre de photons captés). On voit d’ailleurs ainsi que la résolution n’est pas la même en terme de luminosité qu’en terme de colorimétrie. Il existe d’autres systèmes, comme le capteur Fovéon, qui sépare les photosites en différentes couches perpendiculaires aux rayons lumineux, mais cette technique se heurte à d’autres problèmes. De plus, l’œil est bien plus sensible à la résolution en terme de luminosité qu’en terme de couleurs :

Luminance and color resolution impact• A gauche, résolution identique en luminance et chrominance.
• Au milieu, la résolution de chrominance est très inférieure (exagérément par rapport à une matrice de Bayer), pourtant l’image résultante est très proche de la première !
• A droite, c’est la résolution de luminance qui est très inférieure, résultat catastrophique.
L’œil est bien plus sensible à la résolution de luminance qu’à la résolution de chrominance !

RAW processPour récupérer un fichier image exploitable à partir du capteur, il faut dématricer le fichier brut (interpréter la matrice de Bayer obtenue à partir des données du capteur). Cela se fait au travers d’algorithmes, différents selon qu’on utilise le DSP ( Digital Signal Processor, comme le Digic de Canon) du boîtier ou un derawtiseur externe, chaque algorithme ayant leur point fort (netteté, couleurs, moirage, bruit, etc).

Sur le boîtier, l’électronique peux générer directement un fichier raw, ou envoyer les données au DSP qui dématricera les données raw et appliquera les paramètres du boîtier en terme de balance des blancs, saturation, contraste, etc, et fournira ainsi un fichier jpg déjà traité. Le fichier raw, auquel aucun traitement n’a été appliqué, devra lui être développé sur un ordinateur grâce à un « derawtiseur », qui permettra d’ajuster au mieux chaque réglage, contrairement aux réglages pré-enregistrés dans le boîtier pour un jpg.

• 8bits ou 12bits ça change quoi ?

Question extrêmement pertinente, puisque l’énorme majorité des écrans et imprimantes est incapable de restituer plus de 8bits, sur un gamut (espace de couleurs) assez restreint. Et c’est pourtant bien là que ce situe l’un des principaux avantages du raw, qui va permettre un traitement sur la balance des blancs, saturation, contraste, exposition bien plus poussé qu’en jpg. A savoir que les dos numériques travaillent directement en 16bits, les derniers Canon 1DIII/1DsIII et 40D en 14bits, et les autres DSLR en 12bits.

Un pixel d’une image est composé de trois couches de couleurs, Rouge Vert Bleu, chaque couche pouvant contenir un certain nombre de nuances. En 8bits, chaque couche est donc codée sur 8bits (ou 8bpc, pour Bits Per Channel), soit 256 nuances de rouge, autant de vert, et de bleu. En effet, l’informatique étant binaire, on dispose de 8 ‘0’ ou ‘1’ pour coder l’information, soit 82 = 256 possibilités. Sur trois couches, on obtient donc 2563 = 16 777 216 de couleurs, soit 24bpp (Bit Per Pixel). Par exemple, en 16bits, on a 162= 65536 nuances de couleurs par couches, soit 6553633 = 281 trillions de couleurs, ou 48bpp. Pour information, l’œil humain discerne autour de 12 millions de couleurs, notre image 8bpc suffit donc, comme format final.

Le fait de travailler sur 12bits ou plus en raw permet, en terme d’exposition mais aussi de nuances, de choisir dans ces 12bits, les 8bits que l’on va conserver, voir même de compresser ces 12bits dans les hautes lumières et les basses lumières pour les faire « rentrer » dans les 8bits de notre format final. C’est ce qui permet de récupérer des hautes lumières cramées et/ou des basses lumières bouchées, en travaillant sur les courbes. Car même si on ne « voit » pas ces infos à l’écran, elles existent, et les derawtiseurs permettent justement de décaler ces infos dans le visible, nous offrant le choix. Alors que sur un jpg 8bit, ce travail a déjà été fait avec plus ou moins de succès par le DSP, vous ne disposez donc plus d’informations supplémentaires en dehors de ces 8bits. Le jpg ne contient donc qu’une partie des informations captées par le capteur, au contraire du raw.

8Bits ou 12BitsExemples de retouches, identiques, sur un fichier 12bpc et 8bpc (100%crop) : En jpg, on a beau assombrir un peu pour tenter de récupérer les hautes lumières cramées, comme on n’a pas plus d’informations dans le fichier, on tombe sur un gris clair. En raw, on voit qu’on récupère des infos en dehors des 8bits, qui amènent des détails sans passer les blancs en gris.

Compression jpg

Même en qualité maximum, le jpg est toujours compressé, et par des algorithmes de compression destructive (contrairement au zip/lzw des tiff’s). Il y a donc ici encore, perte de données, qui rendront plus délicate toute manipulation sur le fichier. Ce n’est quand même pas le coté le plus important, d’autant qu’en compression très faible les pertes sont minimes. Il faut quand même en tenir compte et régler son boîtier en compression minimum (qualité maximum), si on utilise du jpg …

• Développement.

Le RAW est donc un fichier brut de capteur, non dématricé (matrice de Bayer), non interprété par le DSP du boîtier. Il est ainsi exempt de tout traitement de netteté, saturation, antibruit etc. Il est de plus codé sur 12bits (14 ou 16 sur certains boîtiers), au contraire des fichiers jpg où les valeurs sont compressées en 8bits par le DSP selon une courbe propre au fabricant. Le jpg n’est donc qu’une partie du raw, partie choisie par le DSP du boîtier et non par vous ! Le raw offre ainsi un véritable négatif numérique, que l’on peut développer avec un derawtiseur en ajustant l’exposition, la balance des blancs, les courbes tonales, la saturation de certaines couleurs, le contraste, etc, à sa guise !

Il va donc falloir réaliser soi-même les tâches réalisées par le DSP du boîtier quand on travaille en jpg. Pour cela, de nombreux outils existent, qu’on appelle des derawtiseurs, ou dématriçeurs.

Les derawtiseurs

La plupart des fabricants de boîtiers fournissent leur propre derawtiseur, comme DPP (Digital Photo Professional) pour Canon ou CaptureNX pour Nikon, et il en existent d’autres venant d’éditeurs. Pour en citer quelques-uns : Adobe LightRoom, Apple Aperture, CaptureOne, DxO Optics Pro, etc …
J’ai personnellement testé la plupart des derawtiseurs, simplement pour être sûr de ne pas me tromper par rapport à mon utilisation. Après avoir utilisé CaptureOne qui est excellent en qualité de dématriçage mais un peu juste en fonctionnalités, j’ai utilisé RawShooter (disparu depuis racheté par Adobe), qui offrait plus de fonctions et était très rapide et intuitif. Je suis depuis passé sur Lightroom, pour lequel j’ai été betatesteur, et qui est simplement excellent en terme de possibilités, une véritable chambre noire, mais qui gère également vos fichiers avec des fonctions de catalogage. C’est également celui qui me permet d’aller beaucoup plus loin en développement et de ne plus avoir besoin de photoshop. Pour le moment, je ne vois pas ce qui pourrai me faire changer … Mais, c’est mon avis, tout à fait personnel, et je ne peux que vous conseiller de vous faire le vôtre !

Modifications non destructives

Une autre grosse différence entre le raw et le jpg, est que dans un derawtiseur, touts les réglages de développement sont non destructifs, c’est à dire qu’ils n’affectent pas le fichier, tant que vous ne l’avez pas développé dans un autre format. En effet, les derawtiseurs n’enregistrent ni ne modifient un fichier en format raw. Ce qui veut dire d’ailleurs, que le raw a une certaine forme d’authenticité, dans la mesure où vous ne pouvez pas enregistrer un fichier dans ce format. Mais çà veut surtout dire que touts les réglages sont en fait une interprétation du fichier raw. Par exemple, Lightroom enregistre pour chaque raw un fichier nommé sidecar, en .xmp, qui contient touts ces réglages (sauf si vous décidez de les convertir en dng, qui comporte alors le sidecar). Bien sûr, en jpg, vous pouvez sauvegarder vos retouches en psd multi calques, mais le poids du fichier augmente d’autant, et surtout le fichier change entre chaque étape. Concrètement, cela veut dire que si par exemple, vous modifiez la balance des blancs sur un jpg dans les bleus, puis la modifiez à nouveau dans les rouges, la deuxième modification se fait à partir du fichier « bleu », déjà altéré ! Alors qu’en raw, c’est simplement un réglage, que vous pouvez modifier des dizaines de fois sans jamais altéré les données du fichier ! C’est un point réellement important lors du développement.

• Workflow (Flux de travail)

Je vais vous exposer ici mon workflow, qui a beaucoup évolué ces dernières années, et qui arrive je pense à maturité. ça reste malgré tout un workflow basé sur mes habitudes et façons de travailler, c’est pourquoi il n’est pas universel, et il ne faudra pas hésiter à en adopter un autre si nécessaire, ou au moins adapter celui-ci à votre activité. Il peut paraître long, mais j’ai essayé de le détailler au maximum sans entrer dans les fonctions propres au derawtiseur bien sur, et la plupart des étapes sont extrêmement rapides (quelques minutes).

Prise de vue en RAW (aucun réglage boîtier hors prise de vue)

Une seule chose à laquelle il faut faire attention à la prise de vue (en dehors de la composition et des règles habituelles propres à la prise de vue bien sûr), c’est l’exposition. Qu’on soit en Av, Tv ou manuel, il faut « exposer à droite ». En numérique, on dispose d’une dynamique assez réduite, et on pourrait être tenté de sous exposer légèrement pour sauvegarder les hautes lumières. Le problème est qu’en développant en sur-ex pour compenser, on va faire ressortir le bruit dans les basses lumières, et on disposera de moins de nuances. Moins de nuances, plus de bruit, résultat catastrophique ! Il faut donc exposer avec un histogramme au maximum à droite, sans toutefois déborder pour conserver des infos en hautes lumières.
Cette règle, « exposer à droite », est extrêmement importante ! Ce qui veux bien dire, ne jamais, JAMAIS, sous exposer !
En terme de dynamique, les capteurs ont une réponse linéaire, ce qui veux dire que les nuances disponibles ne sont pas réparties équitablement sur la largeur de l’histogramme, bien au contraire ! Plus il y a de lumière, plus il y a de nuances, ainsi plus de la moitié des nuances disponibles se situent sur un cinquième seulement de l’histogramme, sur la … droite ! Sous exposez d’un diaph, et vous perdez la moitié des nuances que le capteur est capable d’enregistrer !

Réglez votre boîtier pour afficher l’histogramme après chaque vue et jetez un oeil dès que les conditions changent. L’histogramme représente, sous forme graphique, la répartition des pixels entre le noir (à gauche), et le blanc (à droite).

Histogramme sous ex Hstogramme sous ex 2 Histogramme correct Histogramme sur ex
Voici la même prise de vue, avec quatre expositions différentes.
Franche sous-ex, rien à droite (les haute lumières) et surtout l’histogramme est violemment coupé à gauche, ce qui veut dire que l’image contient énormément de zones noir pur, complètement bouchées, impossible à récupérer. Ici, un cas particulier :

on pourrait penser que l’histogramme centré est bon, surtout si la scène est relativement sombre. Il serait pourtant judicieux de surexposer (ici un bon diaph) pour se caler à droite, quitte à sous exposer au développement. On captera ainsi plus de nuances, et le résultat n’en sera que meilleur !

Exposition correcte, on affleure la droite, pas de pixels noirs (à gauche). Sur-exposition, l’histogramme est coupé à droite, donc de nombreuses zones « cramées », où l’on risque de manquer d’informations.Malgré tout, en raw, on peut se permettre de sortir un peu à droite, car les derawtiseurs récupèrent des infos dans les haute lumières (recovery highlight). Il faut éviter de surexposer de plus d’un diaph quand même (ici c’est trop !)

Copie des fichiers sur le disque dur

De retour sur l’ordinateur, on passe par un lecteur de carte pour copier les fichiers sur le disque dur. Il faut alors se donner une structure logique de répertoires (hiérarchie), permettant de s’y retrouver facilement, même si on dispose d’un logiciel de catalogage. Le top étant d’avoir une partition dédiée aux photos, avec l’arborescence directement accessible. En matière de sécurité, personnellement j’utilise des disques en RAID 1 (miroir), avec une sauvegarde sur un disque dur USB gérée par UltraBackup.
Voici mon arborescence, propre à mon activité photo, je la donne donc à titre d’exemple, encore une fois n’hésitez pas à vous faire la vôtre, le principal étant d’être logique pour s’y retrouver facilement.

Bien qu’il soit extrêmement facile et rapide de retrouver une photo particulière dans un logiciel de catalogage comme Lightroom, et de retrouver directement le fichier sur le disque dur, il est quand même très important de conserver une arborescence logique en dehors du logiciel, ne serait-ce que pour ne pas en être « prisonnier ».

– Le premier niveau de répertoires correspond aux séries de ce site ( Divergence, Césure, Océan, Nature, etc … ). Ce niveau contient également la base de données complète de Lightroom.
– Le deuxième niveau reprend simplement les années, pour ne pas se retrouver avec 2000 répertoires sur le même niveau, si vous faites énormément de sessions, vous pouvez encore scinder par mois.
– Le dossier contenant tout les raw de la session, avec la date et un titre évocateur.
– Le dossier contenant les exports finaux en sortie du derawtiseur. Possibilité d’ajouter une sous-structure web, print, book, etc.

Import dans Lightroom

Il suffit maintenant d’importer le répertoire dans Lightroom, avec bien sûr l’option « import photos at their current location », soit par la commande « import », soit simplement pas cliquer-glisser du repertoire dans la grid view. Vous pouvez à cette étape anticiper la suite en spécifiant un preset de développement, de metadatas, et entrer des keywords.
Vous disposez alors sous Lightroom de la même arborescence dans le module Library/Folders, comme on peut le voir ci-dessus.
Lancez les previews 1:1 (Library, Render, Render 1:1 previews) qui se feront en tâche de fond pendant qu’on passe aux étapes suivantes.

A noter qu’ Adobe a sorti un nouveau format, le DNG (Digital Negative), sensé être un format raw « universel » et perenne, supporté par l’ensemble des futurs derawtiseurs et catalogeurs. Il est de plus mieux compressé (non destructif) que la plupart, et les paramètres de développement (les sidecars, fichiers xmp, de lightroom) sont inclus dans le fichier. Reste à voir ce qu’il adviendra de l’adoption de ce format. Un convertisseur est disponible pour les derawtiseurs qui ne supporterai pas un format raw particulier.

Réglages par lot des metas locations

Lightroom IPTCSélection de toutes les photos de la session (previous import, Ctrl+A), et renseignement des metadatas locations, keywords, etc. Je ne renseigne à ce stade que les données propre à toutes les photos de la session, pour ne pas perdre de temps à ajouter des keywords sur une photo en particulier, qui sera supprimée par la suite.

Premier tri

Le premier tri consiste à supprimer les ratés techniques : exposition scabreuse (trop sous ou sur-ex pour être rattrapée), AF à l’ouest, erreur grossière de cadrage, flou de mouvement, etc.

Développement des meilleures photos

Passage dans le module ‘Develop’ pour développer quelques photos, souvent les meilleures. Partie purement subjective et artistique ! Cette partie peu aller très vite, notamment grâce aux possibilités des derawtiseurs, qui permettent d’appliquer tout ou partie des paramètres de développement d’une photo à une sélection de photos. Vous pouvez ainsi développer une seule photo (quelques minutes maximum), puis appliquer ces paramètres à toutes les photos qui correspondent en terme de prise de vue. Ce sont les fameux « traitement par lot ».

Deuxième tri

Le fait d’avoir développer quelques photos permet de mieux sentir celles que l’on va garder ou pas, en terme de cadrage et d’exposition. On refait donc un tri, plus sévère car réellement axé sur la compo, et pas uniquement technique. On peut dès maintenant commencer à rentrer des ratings.

Réglages finaux des meilleurs shoots

On finalise le développement des photos qui ont résisté aux tris. On peut affiner par photos l’application des traitements par lots.
Ici restent celles qui seront réellement exportées et utilisées.

Renseignement des mot-clés et ratings

Lightroom ratingMaintenant que l’on dispose de moins de photos, et qui resteront, on prend le temps de renseigner des keywords plus précis par photo, et on renseigne les ratings (personnellement les 5* sont exportées et iront sur le site, les 4* conservées au cas où, tout le reste est supprimé. On serait tenté d’en garder beaucoup, c’est à chacun de décider, mais imaginez deux ou trois ans plus tard, la quantité de photos inutiles que ça risque de représenter.

Exports en PSD 16bits ProPhoto

Export des photos, au format psd, 16bits, dans l’espace couleur ProPhoto, dans le sous répertoire « Converted » de la session :
– Au format psd car je les importe ensuite dans photoshop pour quelques réglages fin, et je les conserverai en psd multi calques.
– En 16bits pour une liberté évidente de retouche, même si j’en fait très peu. Qui peut le plus, peut le moins …
– Dans l’espace ProPhoto, simplement parce que c’est l’espace couleur le plus large, donc offrant le plus de marge en terme de retouche.

Import des psd dans Photoshop

J’importe ensuite les psd dans photoshop, pour finir quelques réglages fins, le plus souvent sur la netteté et le débruitage, et quelques effets, même si c’est rare. Je sauvegarde ensuite le psd, en version multi-calques, qui restera donc en haute définition, 16bits, prophoto. A partir de là, j’enregistre différents formats, comme des tiff’s 8bits converti en sRGB pour l’impression, des jpg 8bits/sRVB à la résolution web, etc, en veillant à chaque fois à optimiser la netteté en fonction du format.

A noter que cette étape peut être effectuée directement en sortie de Lightroom.

Envoi des fichiers

Nous disposons maintenant de notre répertoire « Converted » avec les psd sources, et les fichiers prêt à envoyer au labo pour impression, à intégrer sur un site internet, envoyer pour validation au client, etc … ! Lightroom vous permet même d’exporter directement un diaporama d’une sélection, pour envoyer un seul fichier complet à un client par exemple.

• Conclusion

Il apparaît ainsi que le jpg et le raw répondent à deux philosophies différentes, à la fois à l’usage, mais aussi en terme de résultat. Pour utiliser le jpg, il faut bien paramétrer son boîtier (saturation, balance des blancs, netteté, contraste, compression jpg, antibruit, etc), et donc y passer du temps et bien le connaître, et surtout lui faire confiance, ou alors passer son temps à contrôler et changer ces paramètres sur le boîtier entre les prises de vue ! En raw, on ne configure rien, on s’occupe uniquement de la prise de vue (cadrage, ouverture/vitesse/iso), en prenant simplement garde à exposer à droite, le reste se fera au calme sur l’ordinateur, avec une liberté de développement bien plus large.

Par exemple la presse, qui a besoin de résultats immédiats et pas forcément qualitatifs, utilise principalement le jpg. « On shoot, et on envoi direct ». Inversement, je n’ai jamais vue un portraitiste travailler autrement qu’en raw ! Même créativement parlant, le fait d’avoir un vrai négatif possédant tout son potentiel, qu’on développera après la prise de vue, permet de mieux sortir sa propre vision. On revient en quelques sortes au workflow de l’argentique, prise de vue puis développement au calme, mais sans les bains d’acides … et sans les temps d’attente !

Il ne faut pas non plus croire que le raw est réservé à une élite, aux perfectionnistes qui ont le temps d’en perdre sur l’ordinateur, etc. Bien au contraire, dès lors que vous retouchez vos jpgs, avec un bon workflow, shooter en raw est plus rapide ! De plus, le jpg, qui est déjà traité par le dsp, peut même être une source d’erreurs pour les débutants, qui auront du mal à faire la part des choses entre les paramètres de prise de vue et les réglages boîtiers propres aux jpg, sans parler d’apprendre à retoucher ses photos !

Pour finir, je vous conseillerai de conserver vos raws (ceux qui ont survécu à la sélection bien sûr), car étant les données originales du capteur, personne ne sait si on n’aura pas demain un nouveau derawtiseur plus puissant permettant d’aller encore plus loin. Et comme pour les négatifs, le raw est l’original, un psd tout 16bits soit il n’est qu’une épreuve du raw. Mais bon, j’ai connu des photographes qui allaient faire développer leurs négas et les jetaient ensuite (oui oui, les négas !!) …

Intérêts du RAW :

  • Gain de temps lors de la prise de vue car aucun réglage boîtier mise à part la prise de vue proprement dites.
  • Travailler sur 12, 14 ou 16bits au lieu de 8bit : une énorme marge de manoeuvre au développement sans risquer de détériorer l’image.
  • Modifications non destructives.
  • Contrôle de la balance des blancs sans aucune dégradation du fichier.
  • Traitement antibruit et netteté personnalisés.
  • Format non compressé.
  • Authenticité du fichier, puisque non modifiable en l’état (négatif numérique).

Inconvénients du RAW :

  • Un fichier raw est plus « lourd » qu’un jpg, on en met donc moins sur une même carte, et les opérations de lecture/écriture sur le boîtier et ensuite sur l’ordinateur sont un peu plus lentes. Mais sincèrement, au prix des cartes maintenant …
  • Nécessité de passer un minimum de temps en développement. Inversement on ne perd plus de temps à paramétrer le boîtier !
  • Formats propriétaires et différents suivant les boîtiers, il faudra donc attendre une mise à jour de votre derawtiseur si vous vous jetez sur le dernier boîtier sorti. Malgré tout, ces mises à jour sont très rapides, et quelque soit le format raw (cr2, crw, nef, etc) le fonctionnement dans le derawtiseur est exactement le même. A suivre aussi, le format dng, qui a encore besoin de convaincre …

N’hésitez pas à commenter cet article pour en discuter !

Publié par

Nicolas Genette

Auteur Photographe

13 réflexions au sujet de « Le RAW, définition, utilisation et workflow. »

  1. Un seul mot ? Bravo ! Clairement exprimé, très logique et pédagogique. Je vais faire quelques essais, manière de voir. Je savais pas mal de choses déjà mais le coups de ne plus s’emmouiser avec les réglages du boitier autres que Diaph, vitesse, ISO et cadrer ? Mais alors, comme disait l’autre ? Comme que quand j’étais jeune, alors !

    Merci – Pierre VOYARD

  2. bonjour, merci pour cette source d’infos tirées de votre expérience personnelle. Je suis à peu près le même schéma mais j’ai du mal à jeter… alors j’ai beaucoup de photos. Je shoote en jpg et en raw simultanément, mais depuis plus de deux ans je ne travaille que sur les raw… je vais donc arrêter de shooter en jpg et de me prendre la tête dans les menus de mon d700. Je vais dorénavant avoir un zénit ttl perfectionné entre les mains. C »est avec ça que j’ai débuté… et vais retrouver le bonheur de mettre la pelloch sur la spire dans le noir absolu puis de mettre la spire dans la cuve et refermer le couvercle puis allumer la lumière. Celle de mon pc et NX2, puis photoshop. Je n’arrive pas à passer à Lightroom…
    J’y passe autant heures que j’en passais dans le labo argentique… J’aime triturer les fichiers et leur donner plusieurs visions différentes…
    Merci de ces conseils riches et bravo pour vos travaux en studio… j’aimerais bien avoir votre maîtrise de l’éclairage.

    1. Article très instructif. Du coup, je me pose des questions que je me posais pas avant !

      Par exemple, sur quoi est basé l’histogramme affiché par le derawtiseur ? sur les 12 (ou plus) bits en provenance du raw ou bien sur les 8 bits affichés par l’écran suite aux corrections effectuées ?

      1. Bonjour,
        Sur l’appareil, celui-ci crée un petit jpeg à partir du raw prenant en compte vos paramètres de boitier (contraste, saturation etc). L’histogramme est alors basé sur ce jpeg. D’où l’intérêt d’avoir des paramètres de base, plutôt désat et non contrastés.
        Dans le derawtiseur, l’histogramme est issue du raw complet, interprété par vos paramètres de développement. En fait, il ne peux rien afficher sans ces paramètres, donc même si vous ne touchez à rien, il applique les paramètres par défaut. Mais le derawtiseur ne sait pas si votre écran affiche 8 ou 10bits, est calibré etc … Par exemple si vous ouvrez un raw, que vous remontez les basses-lumières, vous verrez le pieds de l’histogramme (la gauche) se modifier. Mais vous ne verrez peut-être pas la différence à l’écran si celui-ci est de mauvaise qualité ou pas calibré. Car en compressant l’histogramme vous passerez peut-être de 14bits à 11bits, et votre écran lui affichera presque la même chose.

        1. Bonjour,

          Tout d’abord merci d’avoir pris la peine de me répondre. Cela répond tout à fait à une des facettes de ma question à savoir que l’histogramme affiché par le derawtiseur peut, par exemple, être considéré comme celui de l’image TIFF 16 bits exportée avec les réglages en cours (=> Photoshop devrait afficher le même histogramme) mais pas comme celui de l’image affichée à l’écran (ou du jpg exporté).

          Pa ailleurs, si je comprends l’idée derrière la dernière phrase de votre réponse (une correction ne se voit pas forcément à l’écran), j’ai du mal à comprendre la formulation. Dans mon esprit, remonter par exemple les basses lumières revient juste à augmenter la valeur des photosites correspondants. J’ai du mal à voir le rapport avec « […] vous passerez peut-être de 14bits à 11bits ».

          Un autre point m’interpelle : on lit un peu partout que la dynamique du capteur (et donc du raw) est plus grande que celle du jpg. De ce que je comprend, ça me paraît un abus de langage : un jpeg peut avoir la même dynamique (du blanc pur au noir absolu). Ce qui change, c’est la résolution de cette dynamique : là où un TIFF peut représenter 16 niveaux différents, le jpeg ne peut en représenter qu’un seul. Certes, remonter les basses lumières va notamment augmenter la valeur des photosites compris entre 0 et 16 – pour un raw 12 bits – (convertis en pixels noirs sur un jpeg ou à l’écran) et potentiellement faire apparaître des détails (idem à l’inverse pour les hautes lumières) mais ça reste un phénomène à la marge qui ne justifie pas à lui seul de dire que ça augmente la dynamique.

          Cordialement.

          1. Attention à ne pas confondre l’encodage des couleurs et celui du fichier. Vous avez raison, un fichier 16bits par canal aura plus de nuances par couleur mais la même ‘dynamique’.
            Mais sur un fichier raw (12bits par exemple), la dynamique est pas seulement plus fine, elle est également plus large. Si le noir (0,0,0) est à 0, et le blanc (255,255,255) à 1, un fichier 12bits pourra par exemple avoir des valeurs supérieures à 1 ! Mais votre écran n’affichera pas ces valeurs, elles sont pourtant bien dans le fichier.

            Sur un fichier 8bits, si vous sous-exposer un blanc à 1, vous aurez un gris clair (0.9 par exemple). Sur un fichier 12bits, ce que vous voyez comme du blanc peu être d’une intensité de 1, ou supérieure à 1 ! Et si vous sous-exposez, vous n’aurez alors pas un gris clair, mais des informations de couleurs qui sont bien dans le fichier, mais qui apparaitrons seulement en sous-exposant parce que votre écran est incapable de restituer ces valeurs. Donc un rouge d’intensité supérieur à 1 sera blanc sur votre écran. Si vous sous-exposer assez, vous finirez par apercevoir cette teinte rouge. Après, si le capteur sature, çà sera un blanc quand même (cramé).

            C’est là tout l’intérêt du raw, c’est que non seulement les couleurs sont découpées plus finement, mais elles sont enregistrées dans un spectre plus large. A vous ensuite au développement de ‘choisir’ comment faire tenir ce large spectre dans un spectre 8bits, puisque la plupart des écrans et imprimantes n’iront pas au delà. Mais si vous êtes en jpeg, votre rouge très intense sera converti en blanc dans le jpeg, et vous ne pourrez jamais retrouver cette teinte rouge, alors qu’en développant le raw, oui.
            Je l’ai fais courte mais le principe est là 😉

  3. Excellent !!! merci beaucoup ! je suis assez pointilleux sur la qualité de mes photos et je shootais toujours légèrement sous-ex pour limité les dégâts mais je me rend compte que je faisais tout faux !! grâce a vous à partir d’aujourd’hui mes images vont grimpé un peu plus en qualité ! =D 1000 merci ! très très heureux d’Avoir lu votre article !

    1. Ce qui était vrai en 2007 ne l’est plus avec les capteurs actuels. En effet, ils peuvent facilement encaisser 2 diaph en sous-ex et ne pas monter de bruit lors du « débouchage » des zones d’ombre car leur électronique travaille à très faible bruit, comparé aux anciens APN. Ainsi, une sous-exp de 2 diaph des tons sombres sera facilement récupérable sur un coucher de soleil, alors qu’un diaph de sur-exp sur les tons clairs donnera une partie de ciel « cramé » !

      Excellent article car même 8ans après, pas trouvé de si claires informations ailleurs !!!

      1. Les capteurs on certes évolués, mais les tons à droite de l’histogramme seront toujours bien plus riches que des tons sombres, qui plus est remontés d’une sous-ex. Après, oui c’est également toujours vrai, quand c’est cramé, c’est cramé. Donc on expose à droite mais sans cramer 😉 Et l’évolution des capteurs permet effectivement d’être un peu moins regardant sur l’expo (tout dépend de l’exigence du photographe), mais aussi de photographier plus facilement des scènes à fort contraste sans bracketing.

  4. > Ainsi, une sous-exp de 2 diaph des tons sombres sera facilement récupérable sur un coucher de soleil, alors qu’un diaph de sur-exp sur les tons clairs donnera une partie de ciel « cramé » !

    A mon avis, cette phrase n’a pas de sens. On peut très bien avoir une sous-exposition de 1 EV dans les tons sombres qui soit impossible à déboucher (même avec du bruit) et une sur-exposition de 2 EV dans les tons clairs qui ne donne pas une zone cramée. Sauf à définir « sur-exposition » comme étant un dépassement de la limite haute du capteur et « sous-exposition » comme étant juste une zone plus sombre qu’elle ne devrait être mais restant dans la dynamique du capteur. Ce qui revient alors à comparer des choux et des carottes.

    En réalité, la situation est parfaitement symétrique : soit le pixel est dans la dynamique du capteur est est donc représentable avec une valeur comprise dans cette dynamique (entre 1 et 1022 pour un capteur 10 bits), soit il ne l’est pas et il est dit bouché ou cramé selon qu’il s’agit d’une zone sombre ou claire.

    Symétrique mais pas tout à fait : les valeurs basses de pixels (zones sombres) sont entachées de bruit de lecture (read noise), ce qui n’est pas le cas des valeurs hautes (zones claires). Il est donc souhaitable d’exposer à droite (sans sortir de la dynamique du capteur, cela va de soi) quitte à corriger en post-production.

    Certes, vous faites bien de le rappeler, le progrès aidant, le bruit dans les valeurs basses diminue mais par rapport au bruit nul dans les zones claires, ya pas photo.

    1. Exactement. Les limites sont un aplat blanc à droite car cramé, ou un bruit plus ou moins présent selon les capteurs à gauche. Mais la théorie ne change pas, et les tons clairs seront toujours plus riches.

Postez un commentaire