Un appareil photo noir et blanc en préparation chez Sony ?

Avec la déferlante sur le marché des appareils photos numériques et leur propagation sur nos smartphones, les filtres et autres outils de retouche se sont démocratisés. Faire une photo en noir et blanc, par exemple, est possible via un simple paramétrage. Pourtant, Sony travaillerait sur un appareil monochrome...

S’adressant à un public très ciblé – essentiellement des professionnels de la photographie -, cet appareil photo monochrome, s’il est effectivement prévu, viendrait concurrencer directement le Leica M Monochrom et ses 6 800 euros – boîtier uniquement -.

Les puristes vous le diront, une photo prise en noir et blanc est de bien meilleure qualité qu’une photo couleur sur laquelle on aurait appliqué un simple filtre noir et blanc. Et pour parfaire encore la prise de vue, Sony travaillerait sur un nouveau capteur offrant une netteté accrue, de meilleurs résultats quand on monte dans les ISO et une meilleure plage dynamique.

Patience, et prudence donc, il ne s’agit que d’une rumeur. L’appareil serait par contre attendu dans l’année… A suivre !

Tags :Sources :Geeky Gadgets
Dernières Questions sur UberGizmo Help
  1. J’aimerais BEAUCOUP des détails techniques qui permettent de dire qu’un appareil NUMÉRIQUE noir et blanc donne des photos de meilleure qualité qu’un appareil NUMÉRIQUE couleur, de même résolution et de même qualité optique s’entend.
    Les « puristes » parlent sans doute des argentiques N&B …

  2. Un appareil couleur a un capteur monochrome sur lequel est posé un filtre dit de Bayer.
    Du coup, chaque pixel se retrouve avec un minuscule filtre soit rouge, soit vert, soit bleu – et en fonction de ce qu’il mesure, il va donner une info sur l’intensité de cette couleur (et cette couleur seulement) à cette coordonnée pixel.
    Donc déjà on voit que chaque pixel ne mesurant qu’une couleur, la « résolution de l’information couleur » est en fait inférieure à la résolution effective du capteur. Mais c’est loin d’être le seul problème.
    Un algorithme va prendre ces informations couleur et les mélanger pour affecter de l’info couleur à chaque pixel. Mais le choix de l’algorithme et son mode de calcul est arbitraire, mais en plus ne pourra jamais être aussi précis que si chaque pixel pouvait effectivement savoir de quelle couleur il devrait être.
    Un autre gros problème vient du filtre lui-même : Il ne transmettra jamais 100% de la lumière, d’où une perte de sensibilité du capteur.
    De plus, tous les défauts de fabrication du filtre font influencer la qualité de l’image : Imperfection de la forme des mini-filtres, imperfection du filtrage lui-même, etc…
    Ensuite l’appareil photo va prendre toutes ces données, et les interpréter ARBITRAIREMENT pour produire une image couleur. Selon une balance des blancs qu’il estimera comme il peut et d’autres paramètres, il va choisir tout seul qu’est ce qui est rouge, qu’est-ce qui est jaune, etc… Sauf si on fait du RAW, mais là c’est le photographe qui va faire des choix arbitraires et subjectifs sur l’interprétation des couleurs.
    Et du coup lorsqu’on va repasser de la couleur au N&B, il faudra de nouveau faire des choix arbitraires de la contribution de tel ou tel canal de couleur à tel ou tel niveau de lumière (si on ne se contente pas de bêtement désaturer l’image).
    Donc si on résume, dans l’ordre, la chaîne de dégradation de la qualité ressemble à ça :
    Défauts de fabrication du filtre de Bayer -> Perte de sensibilité – Démosaiquage par un algorithme arbitraire – Invention par l’appareil (ou le photographe) d’une interprétation pour faire des couleurs – Choix arbitraires en passant en Noir et blanc
    Alors qu’un capteur noir et blanc nu se contente de donner l’intensité lumineuse qu’il reçoit à chaque pixel (à une calibration près).
    C’est pour ça qu’en mesure scientifique on n’utilise que des capteurs n&b, la couleur c’est pour faire de la communication !

    1. Merci @tl;dr pour cette explication mais qu’en est-il si on prend une photo en noir&blanc avec un APN couleur? Evite-t-on ce filtre ou est-ce que cela l’implique quand même tout en repassant en N&B derrière (ce qui serait un peu dommage, non?)

      1. Le filtre étant fixé au capteur, tu n’as pas d’autre choix que de passer par lui. C’est juste lors de la conversion des niveaux de gris vers la couleur que ça va en fait faire une conversion de niveau de gris vers niveau de gris
        Donc la chaîne de dégradation de la qualité devient :
        Défauts de fabrication du filtre de Bayer – Perte de sensibilité – Démosaiquage par un algorithme arbitraire – Interprétation de la valeur de chaque pixel pour en faire un niveau de gris selon une calibration plus ou moins réussie, et sous l’hypothèse que chaque filtre pour chaque pixel a exactement les mêmes caractéristiques d’absorption que ses copains des autres couleurs

        1. Ah oui, et avant que quelqu’un me dise que le démosaiquage est inutile dans ce cas là, je dois juste vous faire l’hypothèse suivante:
          Il est bien plus simple pour un fabricant d’appareils photos de conserver toute la chaîne d’acquisition quel que soit le mode, et simplement rajouter un effet de post-traitement après coup (N&B, sépia, Andy Warhol, boost de la saturation, etc…).
          Donc PEUT-ETRE que certains appareils prennent les données capteurs et les interprètent directement de niveau de gris à niveau de gris en pondérant par rapport à leur filtre, mais j’en doute très très fortement.

        2. Mais derien
          Bon c’est pour chipoter tout ça aussi, hein… Avec un appareil couleur et en suivant des tutos pour faire couleur –> n&b (surtout pas via l’appareil photo ou en désaturant simplement) tu peux arriver à des très bons résultats…

    2. Je me permet de corriger une chose, il y a confusion entre pixel et photosite (récepteur de photon de lumière). Chaque pixel est codé par 4 photosite qui vont soit recevoir du rouge, du vert (x2 pour se rapprocher le plus de la vision humaine) ou du bleu venant de la lumière filtré par la matrice de Bayer. Ainsi la combinaison de ces 4 photosites donne l’information d’un pixel.

      Sinon superbe explication!

  3. Une question que je me pose quand même: est ce que le capteur de cet appareil n&b aura la même réponse « colorimétrique » qu’un pellicule N&B: Autant, quand on fait couleur=>monochrome, on peut mixer les canaux, autant là, il faudra se contenter de l’unique réponse du capteur, ou alors rajouter un filtre sur l’objectif et perdre alors en partie l’avantage de ne pas avoir de filtre de bayer.

    1. Il y aura des « réponses colorimétriques » différentes en argentique selon les pellicules, papiers, produits et méthodes de développement utilisés donc ce serait difficile à répondre avec précision.
      Disons qu’avec ces nouveaux appareils, chaque pixel aura une sensibilité prédéfinie à chaque longueur d’onde et n’enregistrera au final qu’une intensité donnée, point. Donc avant on pouvait jouer sur plein de choses pour inflencer le rendu, ici on aura en gros la luminosité et le contraste, et puis c’est tout…

  4. Chapeau pour les explications !
    Ça fait plaisir de lire des commentaires précis, objectifs et sans critique inutile.
    Je suis stupéfait, ça faisait tellement longtemps …

    1. 3 ans après !! pensez vous qu’avec le capteur Fovéon de chez Sigma avec sa technologie différente, on puisse obtenir de meilleurs résultats en N&B ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité