Attention tout de même, cette histoire de bit est très subtile et demande de s'y arrêter (pour rentrer dans le compliqué cette fois-ci).
Le bit est une unité de mesure numérique, il ne peut prendre que deux valeurs, "1" ou "0".
le numérique utilise cette unité pour une raison toute simple, il correspond au fait que de l'électricité passe ou non dans un composant, ou par exemple, qu'un élément d'un disque dur soit ou non magnétisé, du binaire quoi
On calcule ses possibilités avec les puissances.
Avec 2 bits vous avez comme possibilités : 00, 01, 10 et 11.
2 puissances (ou ^) 2 bits = 4 possibilités
Avec 3 bits vous avez comme possibilités : 000, 001, 010, 011, 100, 101, 110, 111.
2 puissance 3 bits = 8 possibilités (ou 2x2x2)
2^1bits = 2
2^2bits = 4
2^3bits = 8
2^4bits = 16
2^5bits = 32
2^6bits = 64
2^7bits = 128
2^8bits = 256
2^12bits = 4 096
2^14bits = 16 384
2^16bits = 65 536
2^32bits = 4 294 967 296
Première remarque, pour une image numérique, on parle de bits par couches (3 en RVB), et par pixel.
Il faut donc être vigilant à ne pas défoncer sont espace de stockage, car plus de bits = quantité d'information qui augmente de manière exponentielle.
Plus de bits ne veut pas dire qu'on peut récupérer plus d'information dans les hautes ou basses lumières.
Et pour bien comprendre ceci, on doit expliquer ce qu'est la plage de dynamique et ne surtout pas la confondre avec la quantification binaire brute.
La plage de dynamique d'un capteur est sa capacité à enregistrer une gamme de luminosité plus ou moins grande en un shoot.
Techniquement, c'est la capacité du photosite à convertir des photons en électrons et les stocker en vue d'une conversion numérique binaire.
On ne va pas essayer de parler d'équivalence bits/quantification électronique, déjà, c'est absurde et surtout, ça embrouille le sujet pour rien.
On peut juste retenir qu'il est possible de mesurer cette plage de dynamique, c'est par exemple ce que fait DxO Mark, par exemple le D70, c'est 10.3 EVs, le D850 14.8 EVs (EV = Exposure Value, pour parler sale, un "diaph").
Mais attention, on parle de capacité (qu'on atteint uniquement a sensibilité native), ce qui veut dire qu'il sera enregistré en RAW, mais tout ne sera pas affiché par défaut !
Que ce soit l'image de prévisualisation d'un RAW ou un JPEG (en fait, c'est quasiment la même chose), vous aurez une image écrêtée, souvent aux alentours de 8 EVs !
Et pour cause, 15 EVs, c'est énorme !
En effet, 15 EVs, c'est presque du HDR, et rien n'est en mesure d'afficher l'intégralité de la dynamique...
Un LCD fait 500:1, c'est à dire 9 EVs, un OLED peut pousser à 100000:1, c'est-à-dire 16 EVs (et on parle d'écran 1000000:1, c'est du pur produit marketing).
C'est évidemment biaisé, on affiche jamais autant de dynamique à la rétine, l'expérience utilisateur serait catastrophique !
Imaginez simplement un contre-jour ou un spot filmé face caméra comme il serait aussi désagréable qu'en réalité, vous vous imaginez porter des lunettes de soleil pour voir un film ou regarder vos photos de vacances ?
C'est pour ça que les images sont toujours écrêtées !
Pour avoir une image naturelle, le logiciel interne de votre appareil photo ou votre logiciel de dématriçage va écrêter toute cette dynamique dans une "zone de confort", en général autour de 8 EVs.
Donc, au final, on a une image de 8 EVs, mais avec un fichier 16 bits, quel est l'intérêt ?
La précision !
Le meilleur exemple est le dégradé imaginez que vous ayez une grande image, avec uniquement un dégradé du blanc au noir.
On va dire que le noir absolut et le blanc pur sont défini par la capacité de votre matériel à l'afficher (donc en gros, on ne s'y intéresse pas).
Si votre photo 8 bits fait 256 pixels de large, un pixel vaudra une valeur de gris entre le noir (à gauche) et le blanc (à droite), il sera parfaitement lisse.
Si cette fois-ci votre photo fait 2560 pixels de large, toujours en 8 bits, désormais, ce seront 10 pixels qui auront une valeur de gris unique. Et pour cause, vous ne disposez que de 256 valeurs, à répartir sur 2560 pixels, donc, interpolation ! Votre dégradé aura un aspect d'escalier, il ne sera pas lisse et surtout, pas précis.
Si votre photo toujours en 2560 pixels de large est codée en 12 bits, vous avez une réserve de 4096 valeurs de gris, plus de problèmes.
Donc pour résumer, pour produire une image, un JPEG suffit.
Mais ! Pour avoir une plage de dynamique plus large en post-prod, RAW obligatoire (ils ne sont pas écrêtés, contrairement au JPEG ou au TIFF).
Pour avoir un fichier plus précis au niveau de la couleur, il faut passer par le RAW ou le TIFF et pour cause, le JPEG est en 8 bits.
Pour présenter un fichier, vous devez passer par un JPEG ou un TIFF parce que le RAW n'est pas fait pour l'affichage (beaucoup trop d'informations).
Dernière chose, si vous convertissez un fichier JPEG en TIFF, il sera plus lourd, mais n'aura pas plus d'informations.
PS : Pour le pentachromatique, ça veut juste dire qu'ils voient aussi deux gammes de fréquence UV en plus, ils ont plus d'information sur la largeur du spectre, mais rien ne dit qu'elle est plus précise et donc qu'ils arrivent à discerner des milliards de couleurs en plus (le biologique ne peut pas être quantifié comme un système numérique).