Sujet : Re: Photographie 3D
De : julien.arlandis (at) *nospam* gmail.com (Julien Arlandis)
Groupes : fr.sci.diversDate : 14. Aug 2021, 10:09:37
Autres entêtes
Organisation : Nemoweb
Message-ID : <MeBs-ldkkDsxnGmqwEcq--70B1U@jntp>
References : 1 2 3 4 5 6
User-Agent : Nemo/0.999a
Le 14/08/2021 à 09:18, robby a écrit :
Le 13/08/2021 à 23:43, Julien Arlandis a écrit :
Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait il capable de discerner les differences de tons d'une palette encore plus large ?
il y a pleins d'aspects.
- 8 bits par canal c'est pas du tout assez: un gradient horizontal monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur les ~2000 pixels de large de ton écran, et les sauts se voient très bien ( meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
Et si c'est en couleur avec des gradients différents pour R,G,B, on obtient des teintes fantome (car les sauts ne sont pas synchrones).
Effectivement, une image en noir et blanc codée sur 24 bits ne contient que 8 bits d'informations utiles, c'est peu. À combien faudrait il monter le nombre de bits par canal pour un résultat acceptable, 12 bits, 16 bits ? Et surtout les capteurs numériques peuvent monter à combien ?
- l'oeil s'adapte a la luminosité globalement, mais aussi localement. Avec un appareil photo en exterieur sur une scene a exposition variée tu a vite fait d'avoir une ombre totalement noire, ou une partie au soleil completement blanche: l'info perdue n'est pas rattrapable.
( après il pourrait exister des encodings + malin ).
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est pas le nombre de bits par couche qui va régler ce problème, c'est surtout l'étendue de la plage dynamique des capteurs qu'il faudrait améliorer.
( - a propos d'encoding, on pourrait tj mieux exploiter les bits ( par pixels, voir dans l'image ), c'est bien ce sur quoi jouent les compressions d'image ( bleu moins perçu, régions d'image a dynamique faible ou contenu corrélée, etc ), mais évidemment ce point ne concerne que le stockage, et sous reserve de ne pas vouloir faire de post-traitements. )
- independamment de ça, n'avoir que 3 composants (et jamais assez saturées ) fait qu'on ne peut interpoler qu'une petite partie du domaine chromatique.
Pas compris, tu aurais un exemple ?
en production on sait que le rendu du feu est souvent problématique, par ex.
Quel est la nature du problème ? Au niveau de la compression ou de la capture de l'image ?