Capteur et photosites
Le capteur d’un boitier numérique est composé de millions de photosites qui fonctionnent chacun à la manière d’un panneau solaire en transformant un signal lumineux en une énergie électrique. Ce signal est lui même ensuite converti en valeur numérique par le processeur du boitier et enregistré dans le format raw.
Les capteurs comportent également d’autres couches (5 en tout en général) qui ne seront pas détaillées ici, notamment un filtre passe bas destiné à corriger des effets d’aliasing ou crénelage.
La difficulté c’est que les photosites ne voient pas les couleurs, ils ne voient qu’une intensité lumineuse, sans sa longueur d’onde associée. Les fabricants de capteur ont donc du trouver le moyen de capturer cette information.
Notre oeil perçoit les couleurs grâce à trois types de cônes qui présentent chacun une sensibilité à une région du spectre des couleurs : des cônes plus sensibles à la lumière bleue (cônes S), d’autres à la lumière verte (cônes M) et le troisième type de cônes à la lumière rouge (cônes L). Ils permettent la vision des couleurs pendant la journée. Bien que ces régions soient centrées sur les trois couleurs primaires, elles se chevauchent de manière importante. Les trois types de cônes seront donc stimulés à des degrés divers par une couleur donnée. Notre perception des couleurs dépend de la combinaison de ces stimuli. Ces cônes sont répartis de manière aléatoire sur notre rétine et notre cerveau intègre en permanence ces très nombreux signaux pour constituer une image.

En 1976, Bryce Bayer a déposé un brevet décrivant une méthode pour « copier » au mieux notre œil en ajoutant au dessus de chaque photosite un filtre qui ne laisse passer que le rouge, ou le vert ou le bleu :

Ces filtres sont disposés pour composer une matrice, dite matrice de Bayer qui est encore majoritairement utilisée dans les capteurs de nos boitiers. Comme notre œil est plus sensible au vert qu’au bleu ou au rouge, cette matrice contient 50% de filtres verts pour seulement 25% de bleu et 25% de rouge.
La société Fujifilm a développé plus récemment un autre arrangement de ces filtres pour être plus proche de la perception de l’oeil humain, la matrice X-trans et se passer du filtre antialiasing.


Chaque photosite, placé sous une couleur de filtre donné, n’enregistre donc qu’une partie de la lumière qu’il reçoit. Il faut ensuite reconstituer une image à partir de ces millions de données.
Pixels
A aucun moment un capteur n’enregistre des pixels. Le photosite est un élément physique, le pixel est une création numérique qui n’a pas de réalité matérielle. Le capteur n’enregistre par ses photosites que des informations numériques qui doivent ensuite être traduites pour afficher des pixels. C’est ce qu’on appelle le processus de dématriçage (ou derawtisation en jargon anglais).
Le pixel ou px est l’abréviation de picture element. C’est le plus petit élément d’une image numérique, image qui est composée par la juxtaposition de points. Quand on zoome à fond dans photoshop par exemple, on finit par voir des carrés qui ont chacun une couleur uniforme. Les pixels peuvent prendre bien plus que les 3 couleurs rouge vert et bleu ! Comment passe-t-on d’un signal RVB à 256 couleurs différentes en Jpeg (8 bits) et même à 65536 couleurs différentes en 16 bits ? (encore une bonne raison de vous convaincre si vous ne l’êtes déjà que c’est dommage de shooter en JPEG !)
Le dématriçage est le processus qui permet d’estimer, d’interpoler les valeurs manquantes de couleur pour chaque pixel à partir des informations capturées par les photosites voisins. La méthode la plus simple consiste à utiliser la moyenne des valeurs des photosites voisins de la même couleur. Des méthodes plus sophistiquées prennent en compte des facteurs tels que la distance entre les photosites et la disposition des couleurs dans la mosaïque de Bayer. Le choix de la méthode de dématriçage dépend de plusieurs facteurs, tels que le type de capteur, la qualité de l’image et l’application souhaitée.
Au final on obtient autant de pixels que de photosites. Il faut cependant 9 photosites (le photosite central et ses 8 voisins) pour constituer un pixel.
Quand on enregistre en jpeg dans le boitier, c’est un programme interne au boitier qui effectue le dématriçage et convertit les informations du capteur en pixels. Mais même quand on shoote en jpeg, le capteur n’enregistre pas des informations de pixels.