.
virusphoto virusphoto

Identifiant

Mot de passe

Derniers messages Messages du jour Sujets sans réponse S'inscrire

Rejoignez-nous !

VirusPhoto » Forum » Les articles VirusPhoto » Tutoriels sur la technique photo

Aller au premier non-lu

Résolution, Taille de pixels, Echantillonnage

Article rédigé par Frédéric, le 16/11/2009.Voir son profil

Bonjour tout le monde, je vais essayer d’aborder ici un sujet qui est souvent mal compris par une grande majorité de photographes amateurs, c’est à dire la résolution.
Je m’excuse par avance des erreurs que je pourrais dire. C’est le risque que l’on prend dès qu’on se met dans la position de “prof”. Donc toutes remarque, critique, objection seront les bienvenues.
L’idée commune est de penser que plus on a de pixels et plus résolue sera notre image.
En réalité il y a 2 éléments qui vont contribuer à la résolution d’une image : Le diamètre du diaphragme; l’ouverture, et la taille du pixel.

Je vais commencer par donner des bases d’optique, pour que tout le monde saisisse bien les concepts physiques qui se cachent derrière ces termes assez hermétiques.

LA RESOLUTION
La résolution est communément un concept qui permet de dire qu’on voit plus de détails. Et la résolution est caractérisée par la “Séparation” entre 2 points lumineux à partir de laquelle on distingue ces 2 points sur photo.

Par exemple une personne qui aura une mauvaise vue et qui regardera 2 étoiles proches (Alcor et Mizar de la Grande Ourse par exemple) n’en verra qu’une. Alors qu’une personne peut-être moins âgée distinguera facilement 2 étoiles. Les deux étoiles citées étaient d’ailleurs le test d’acuité visuelle qui permettait, dans le monde arabe du moyen-âge, de déterminer la qualité de la vue des personnes.

Notre oeil fonctionnant de la même manière qu’un appareil photo (tout du moins, nous avons une pupille qui s’agrandit et se rétrécit comme un diaphragme), nous pouvons faire le parallèle avec la photographie.

Donc la résolution d’un appareil photo est caractérisée par son pouvoir de Séparation.
Cette séparation est exprimée en angle. Pourquoi? C’est tout simple :
Imaginez que vous vous trouviez sur la plage. Vous plantez 2 bâtons sur le sable et vous attendez que passe un bateau. La distance parcourue par le bateau entre le moment où il est masqué par le premier bâton, et le moment où il est masqué par le second est d’autant plus grande que le bateau est éloigné de vous. 

En revanche l’angle est le même. Donc sur une photo, une distance entre 2 objets s’exprime en angle.

Vu que notre diaphragme n’a pas une dimension infinie, quand on fait l’image d’un point (une étoile très éloignée par exemple), on obtient pas un point mais une tache (la tâche d’Airy). C’est la DIFFRACTION. Cette tâche est d’autant plus large que le diaphragme est petit. Inversement si le diaphragme était infiniment grand, on n’aurait plus une tâche mais un point.
Ceci est très important pour la résolution. 
En effet, prenons 2 points situés très loins, comme les phares d’une voiture à l’horizon.
En faisant l’image de la voiture (de nuit ), sur la photo n’apparaîtra qu’un seul point. Pourquoi? Parce que la DIFFRACTION des 2 phares crée sur notre image 2 tâches, qui sont tellement rapprochées qu’elles ne semblent en former une sorte de grosse tâche difforme.
Le pouvoir de résolution de l’appareil photo n’est pas assez important.
Qu’aurait-il fallut faire pour distinguer 2 points sur la photos? Il aurait fallut réduire l’effet de diffraction, agrandir la taille de l’objectif de plusieurs décimètres voire plusieurs mètres.
Dans ce cas l’optique de l’appareil photo aurait eu le pouvoir de résolution nécessaire pour pouvoir distinguer les 2 phares.

Mais un autre problème se pose et cela nous amène au 2ème chapitre : le Pixel.

LE PIXEL
Le pixel du CCD est le pendant du grain de la pellicule en argentique. Notre capteur CCD est constitué d’une grille de pixels, un peu comme les alcôves des ruches des abeilles, sauf que nos pixels sont carrés. Chaque Pixel reçoit un certain nombre de photons qu’il “convertit” en un nombre d’électrons. Ce NOMBRE d’électrons est enregistré pour chaque pixel et c’est ce qui forme notre image sur l’ordinateur. La qualité de conversion s’appelle le bruit.
En effet si un pixel reçoit 2 photons... parfois il se trompe et les convertit en 3 électrons. L’erreur est de 1. C’est d’autant plus visible quand on monte en ISO, où chaque conversion est multipliée. Ainsi à 3200 ISO un pixel doit convertir 2 photons en 32 électrons (ce qui permet de mieux voir la nuit quand il y a peu de lumière, peu de photons) si le pixel se trompe et compte 3 photons au lieu de 2, il va les convertir en 48 électrons! L’erreur est de 16!!!!
Ceci est principalement lié à la qualité électronique du CCD.

Revenons à notre problème de résolution. Nous avons vu que le diaphragme de notre appareil crée une tache au lieu d’un point. Cet effet est évidemment nocif à la qualité de l’image.
Heureusement, si cette tâche reste plus petite que la dimension du pixel du CCD, le tour est joué. Votre CCD va compter le nombre de photons qui arrivent sur ce pixel et va le transformer en un numéro. On reste en dessous d’un seuil fatidique où tâche < pixel

Malheureusement, si vous fermez votre diaphragme (disons à f/22) la tâche va s’élargir d’autant plus que que le diaphragme sera petit. Que se passe-t-il?
La tâche va commencer à déborder du pixel et illuminer les pixels voisins. Du coup votre CCD va enregistrer plusieurs pixels pour le même détails... On a dépassé le seuil fatidique : tâche > pixel

Ce raisonnement est valable aussi dans le sens inverse.
Reprenons notre ouverture normale, f/1.8 par exemple. On peut même prendre f/1 le problème est le même. Notre objectif cette fois-ci va créer pour un point lumineux, une toute petite tâche!. Là on est content.
En revanche si on diminue trop notre TAILLE de pixel, ils risquent de devenir tellement petit que leur dimension sera plus petite que notre tâche!! pixel < tâche = tâche > pixel

C’est ce qui se passe quand les constructeurs augmentent le NOMBRE de pixels sur les nouveaux modèles : Prenons un puzzle de 500 pièces. Si vous voulez le même puzzle, de la même taille (pour mettre dans le même cadre par exemple), mais avec 2 000 pièces, vous comprenez vite que les pièces du nouveau puzzle seront beaucoup plus petites.
Il en est de même avec nos CCD. Leur taille ne change pas (24x36 pour les full-frame par exemple). Mais la course aux nombre de pixels est en réalité une course vers le rétrécissement de la taille pixel, jusqu’à notre seuil fatidique ....


Donc il y aurait intérêt à garder de gros pixels (et du coup en avoir moins) ce qui permettrait de toujours rester au dessus du seuil. En plus un élément joue en cette faveur : le bruit cité plus haut. Imaginons CCD de même dimensions. Le premier ayant 1 million de pixels, et l’autre 4 millions. Du coup là où le premier CCD peut loger 1 pixel, le second peut en loger 4. Or un pixel à 4 fois moins de chance de se tromper dans sa conversion photon-électron que 4 pixels...
Tout ceci nous encourage à grossir la taille de nos Pixel et d’en diminuer aussi le nombre.

Mais alors un autre problème se soulève. Celui de l’échantillonnage, et cela fera l’objet de mon 3ème et dernier chapitre :

ECHANTILLONNAGE.

L’échantillonnage est la fréquence à laquelle est transmise une information.
Quand vous regardez la télévision, la fréquence de rafraîchissement est supérieure à 25 images par seconde (fréquence de rafraîchissement de l’oeil) ce qui donne l’impression de mouvement, de continuité. En revanche quand la réception est moins bonne, alors la fréquence d’échantillonnage descend en dessous des 25 images par secondes et cela donne une impression de saccadé que l’on remarque
Pour notre image, c’est pareil. Si on avait que 4 pixel par photo, on verrait 4 gros carrés (par exemple 1 blanc, 1 vert, 1 rouge et un bleu) et c’est tout. Au fur et à mesure que l’on augment notre échantillonnage de l’image, qu’on augmente notre nombre de pixels pour la image en diminuant leur dimension, alors l’image devient plus fine et les détails plus fins apparaissent.
Un autre exemple, retournez sur notre plage, et mettez des bouées phosphorescentes dans l’eau, en ligne droite vers le large. Imaginons que l’on en met une tout les 50 mètres. Quand arrive la nuit, on ne voit plus que les bouées. Vu qu’elles sont très éloignées les unes des autres, leur mouvement ne nous permet pas de deviner les vagues. Au pire, elles peuvent toutes bouger à l’unisson si par malheur leur inter-distance correspond exactement à la distance entre 2 creux des vagues... 
Maintenant retentons l’expérience et plaçons une bouée tout les 5 centimètres. La nuit arrive et la belle ligne de bouée décrit par le mouvement verticale de chacune d’elle, les caractéristiques des vagues qui les soulèvent.

Notre CCD c’est identique, les bouées sont les pixel et les vagues sont notre image. Nous cherchons à bien voir l'image c’est à dire la vague, grâce aux bouées. Donc on en veut beaucoup de bouées.
Ainsi, dans l’intérêt de faire une belle image bien détaillée, nous sommes tentés d’ajouter un grand nombre de pixels.
Or nous l’avons vu au chapitre 2, cette augmentation à une limite : le seuil fatidique.
Si on augmente trop le nombres de pixels, leur taille va trop diminuer (car la dimension totale du CCD reste inchangée comme notre puzzle) et on va passer le seuil fatidique : pixel < tâche.



DISCUSSION

Nous nous apercevons que la qualité technique d’une image est un habile équilibre entre dimension de pixel, nombre de pixel, et qualité de l’optique.
Heureusement l’argentique est passé par là et nous a empiriquement donné des références. Le 24x36 étant la “norme” pour les dimensions du CCD. Fermer un objectif à f/22 nous donne pratiquement le seuil fatidique pour la dimension d’un pixel. Et donc un nombre de pixels maximum pour ne pas voir la diffraction. Comme par hasard le meilleurs compromis trouvé correspond à la taille du grain des pellicules argentiques

Et n’oublions pas que chaque image est composée de la superposition de nos petites tâches dues à la DIFFRACTION.
Même quand je fais la photo de mon frère en pull rouge, chaque photon rouge qui arrive du pull vers mon objectif sera transformé en tâche. Et l’ensemble des tâches rouges passeront à travers un tamis, mon CCD qui transformera toutes ces tâches lumineuses en tâches-électronique, en faisant quelques erreurs...
Outils de la discussion Rechercher dans la discussion
Outils de la discussion
  #2  
non lus 16/11/2009, 13h02
Avatar de Tom54
Membre
Ma pratique de la photo: Pratique régulière
Matériel: Canon EOS 550D - Post-traitement : PhotoFiltre Studio
 
Messages: 879
19930 Photiz
Bonjour,

sujet très intéressant et j'y reviendrai souvent, mais tu te compliques la tâche (http://www.cnrtl.fr/definition/t%C3%A2che) en mettant un accent circonflexe à tache (macula en latin: http://www.cnrtl.fr/definition/tache) .
Réponse avec citation
  #3  
non lus 16/11/2009, 14h24
Nouveau membre
Ma pratique de la photo: Passionné de photo
Matériel: 5D Mk II, 17-40 F4L, 50 F1.4, 85 F1.8, 105 F2.8, 580 EX II
 
Messages: 2
45 Photiz
Ouille

Bonjour,

je vais jouer au méchant pas beau :
il y a effectivement beaucoup d'erreurs et de contre-sens dans cet article :
- la qualité de conversion d'un signal numérique n'est pas le bruit mais le rapport signal/bruit. Cette qualité de conversion dépend de l'électronique, du nombre de bit utilisés pour convertir la mesure en valeur numérique et de la fréquence d'échantillonnage.
- quand je ferme à F22, je réduit la tache sur le capteur, je ne l'agrandis pas
- la phrase suivante est en partie fausse :"Du coup là où le premier CCD peut loger 1 pixel, le second peut en loger 4, et du coup. Or un pixel à 4 fois moins de chance de se tromper dans sa conversion photon-électron que 4 pixels..." Il y a 10 ans les meilleurs capteurs APS-C de 4 millions de pixel n'avaient pas la qualité de conversion des 21 millions de pixels du capteur du 5D Mark II .
- l'échantillonnage n'est pas la fréquence à laquelle est transmise une information. L'échantillonnage est le fait même de convertir une mesure en une valeur numérique. La fréquence à laquelle on exécute cet échantillonnage est la fréquence d'échantillonnage

Xavier

Dernière modification par Freeholic 16/11/2009 à 16h51.
Réponse avec citation
  #4  
non lus 25/11/2009, 16h01
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
Citation:
Posté par Freeholic Voir le message
Bonjour,

je vais jouer au méchant pas beau :
il y a effectivement beaucoup d'erreurs et de contre-sens dans cet article :

Salut, oui je me doute, et merci d'avance pour tes précisions, j'ai mis l'article en ligne pour essayer de faire participer tout le monde, et faire comprendre quelques principes physiques aux photographes moins initiés.
Permet-moi de répondre à tes suggestions.
Citation:
Posté par Freeholic Voir le message
- la qualité de conversion d'un signal numérique n'est pas le bruit mais le rapport signal/bruit. Cette qualité de conversion dépend de l'électronique, du nombre de bit utilisés pour convertir la mesure en valeur numérique et de la fréquence d'échantillonnage.

Exact. J'ai essayé de vulgariser un peu ma pensée. Or en photographie, contrairement à l'astronomie, le flux de photons est sensiblement le même ordre de grandeur sur une photo (le fait de ne pas sur ou sous - exposer). Donc j'ai fait un raccourci sur le fait que le Signal est constant (d'ailleurs tu remarqueras que je ne parle pas de bruit photonique ) et donc je me suis permis de synthétiser la discussion en ne parlant que du bruit de lecture.
Citation:
Posté par Freeholic Voir le message
- quand je ferme à F22, je réduit la tache sur le capteur, je ne l'agrandis pas
Permet-moi de te contredire. En termes plus précis, la Tache (merci Tom54 pour l'accent ) d'Airy
est la fonction cardinale de J de Bessel d'ordre 1. C'est à dire J1(rho)/rho, exprimé en coordonnées polaires. Cette tache ressemble à un disque, entouré d'une série d'anneaux toujours moins intenses au fur et à mesure que l'on s'éloigne du centre de la tache. Entre le disque et le premier anneau, l'intensité atteind la première fois radialement la valeur de 0. On appelle ça le premier Zéro de la tache d'Airy, et celà permet de définir sa largeur standard qui est de 1.22 x Lambda /D.
Lambda étant la longueur d'onde, et D le diamètre de l'ouverture.
Tu te rends bien compte que si D diminue (quand tu fermes ton diaphragme), la valeur du premier Zéro augmente, c'est à dire qu'il séloigne du centre de la tache. Et donc la tache s'en trouve d'autant plus large
Citation:
Posté par Freeholic Voir le message
- la phrase suivante est en partie fausse :"Du coup là où le premier CCD peut loger 1 pixel, le second peut en loger 4, et du coup. Or un pixel à 4 fois moins de chance de se tromper dans sa conversion photon-électron que 4 pixels..." Il y a 10 ans les meilleurs capteurs APS-C de 4 millions de pixel n'avaient pas la qualité de conversion des 21 millions de pixels du capteur du 5D Mark II .
Je ne doute pas que les capteur s'améliorent avec le temps. Mais pour le moment le seul capteur à comptage de photon sans bruit de lecture est la Quad Cell. La taille du circuit intégré et plus grande que celle du capteur lui-même et donc il est impossible d'en faire un réseau (au maximum on peut en assembler 4)
Mon affirmation était une image de l'esprit visant à expliquer le rôle du bruit de lecture dans l'échantillonnage du plan image. Elle présuppose évidemment que les capteurs soient équivalents, au sinon la comparaison n'a plus lieu d'être. Et elle reste reste vraie, tant que le bruit de lecture sera présent.
Citation:
Posté par Freeholic Voir le message
- l'échantillonnage n'est pas la fréquence à laquelle est transmise une information. L'échantillonnage est le fait même de convertir une mesure en une valeur numérique. La fréquence à laquelle on exécute cet échantillonnage est la fréquence d'échantillonnage
Effectivement, j'ai essayé de vulgarise un peu un terme technique qu'est l'échantillonnage. Comme ici la fréquence d'échantillonnage est constante et propre à chaque capteur, j'ai fait un raccourci.


Merci encore pour le retour et les commentaires

Amicalement,
Pm77G
Réponse avec citation
  #5  
non lus 27/11/2009, 23h07
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: Nikon D90 + 50mm 1.4G + 18-105mm, Polaroid 636 Close Up
 
Messages: 6
195 Photiz
Ouuaa j'ai l'impression de revoir mes cours de physique
Réponse avec citation
  #6  
non lus 06/12/2009, 03h37
Avatar de manci
Membre
Ma pratique de la photo: Pratique régulière
 
Messages: 300
3685 Photiz
Si seulement je pouvais faire comprendre tout ça à certains de mes amis (mais aussi à tout les bons gros kéké et les acheteurs ignorants qui croient sur parole les vendeurs souvent autant ignorants qu'eux sur le sujet) qui me les casses grave avec leurs téléphones de ***** à 8, 10 Mpxl et leur capteur de 2x3mm alors que le bon vieux EOS 300D sur lequel je me suis fais la main n'a que 6Mpxl.


Bon sinon si j'ai bien tout compris. Plus le nombre de pixels augmente plus il faut un objectif pointu au quel cas l'augmentation des pixels n'aurait qu'un impact limité sur la résolution d'une image?

Je me souviens avoir tenté d'expliquer ce phénomène en prenant pour exemple une autoroute et son trafic

Je n'ai aucune connaissance en optique mais ce qu'on appelle ici "pixels" ne serait-ce pas en fait les "photosites"? Se sont eux qui réagissent à la lumière si je ne me trompe pas et j'avais lu à ce sujet il y a quelques temps que passé une certaine taille critique un photosite n'était plus en mesure de capter correctement la lumière. Il y a donc une limite physique réel outre la taille du diaphragme, l'ouverture et la qualité de l'optique et de l'électronique ???
Réponse avec citation
  #7  
non lus 06/12/2009, 09h13
Avatar de red
red red est déconnecté
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: Canon 5D, Canon 24-70 f2.8L et 70-200 f2.8L
 
Messages: 1 013
5690 Photiz
Le problème de ce genre de démonstrations, a mon avis, c'est qu'il serait important d'avoir 1 point de lumière= 1 pixel, pour une raison que je ne m'explique pas..

L'augmentation du nombre de pixels au mm² permet, sans prendre en compte le problème de coût et de bruit numérique, d'augmenter la définition... Si on a 8 pixels pour la même tâche, on peut mieux voir la forme de la tâche, au lieu d'avoir juste un carré.

Après, c'est une question de choix... Dans la limite de la technologie disponible, combien de pixels au mm² on peut caser avant que le bruit ne deviennent un problème? Je n'ai pas la réponse, mais il me semble que le 7D et ses 18 mégapixels sur un APS-C, et le 5D et ses 21 sur un FF nous apportent, je pense, un bon élément de réponse.
Réponse avec citation
  #8  
non lus 08/12/2009, 12h02
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
Citation:
Posté par manci Voir le message

Bon sinon si j'ai bien tout compris. Plus le nombre de pixels augmente plus il faut un objectif pointu au quel cas l'augmentation des pixels n'aurait qu'un impact limité sur la résolution d'une image?

...

Je n'ai aucune connaissance en optique mais ce qu'on appelle ici "pixels" ne serait-ce pas en fait les "photosites"? Se sont eux qui réagissent à la lumière si je ne me trompe pas et j'avais lu à ce sujet il y a quelques temps que passé une certaine taille critique un photosite n'était plus en mesure de capter correctement la lumière. Il y a donc une limite physique réel outre la taille du diaphragme, l'ouverture et la qualité de l'optique et de l'électronique ???


Désolé pour la confusion, mais dans mon article quand je dis pixel, je parle en fait de photosites. (je travaille en astronomie où 1 pixel = 1 photosite)

Tu as presque bien compris : Plus la dimension du photosite retrecit, plus il faut un objectif de grand diamètre.
Réponse avec citation
  #9  
non lus 08/12/2009, 12h12
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
Citation:
Posté par red Voir le message
L'augmentation du nombre de pixels au mm² permet, sans prendre en compte le problème de coût et de bruit numérique, d'augmenter la définition... Si on a 8 pixels pour la même tâche, on peut mieux voir la forme de la tâche, au lieu d'avoir juste un carré.

Ce dont tu parles c'est l'échantillonnage, et non la définition. La définition est caractérisée par la dimension du diamètre de ton objectif. Pour un telescope de 1 mètre de diamètre, tu auras une super définition.
Ca c'est la definition limitée par l'optique.
Ensuite tu as la manière dont tu enregistres l'information de l'image obtenue à telle définition. C'est l'échantillonnage (l'exemple des vagues dans le tutoriel).
D'une part, si tu espaces trop, ou si tu as de trop grand photosites, tu vas perdre de l'information sur l'allure de ta vague.
D'autre part, à partir du moment où ta vagues est bien échantillonée, augmenter l'échantillonnage (en retrecissant les photosites et augmentant leur nombre) ne va pas donner plus de détails sur ton image.

C'est aussi une erreur commune que font les astronomes amateurs qui achètent des telescopes en fonction du taux de grossissement. Tu peux grossir tant que tu veux ton image, mais à diamètre égal tu n'auras pas plus de détails. Tu verras les mêmes détails plus gros, c'est tout.
En revanche, sans augmenter le grossissement, mais en augmentant le diamètre de ton telescope, tu auras plus de détails.
Une fois que ce principe est compris, tu comprends que quant tu passes à l'enrgistrement de l'image sur les photosites, tu as un seuil qui est inutile de dépasser : quand ton photosite est plus petit que tes détails. Alors il ne sert à rien de les rendre encore plus petits, vu que les détails de l'image seront toujours aussi grands.
Réponse avec citation
  #10  
non lus 08/12/2009, 12h46
Avatar de manci
Membre
Ma pratique de la photo: Pratique régulière
 
Messages: 300
3685 Photiz
pm77g > Si je te suis bien cela voudrait-il dire que pour un objectif donné on aurait pas forcément plus de détails en échantillonnant avec un capteur de 12Mpxl qu'avec un capteur de 6Mpxl ???

Si mon raisonnement est bon à quoi bon avoir des capteurs avec toujours plus de photosites si se contenter de moins donne les mêmes résultats ?
Réponse avec citation
  #11  
non lus 08/12/2009, 12h54
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
pas tout à fait.
En fait il s'agit d'un équilibre à trouver. En effet si ton photosite est super grand, tu vas mal échantillonner ton image (image du haut avec la vague et les bouées) Donc dans ce cas-là, diminuer la taille du photosite et donc par là-même augmenter leur nombre (augmenter le nombre de bouées) est intéressant.
En revanche il arrive un seuil, où t'as t'ellements de bouées qu'en rajouter ne sert à rien. Et ce moment arrive d'autant plus "tôt" que ton diamètre d'objectif est petit. Imagine quand tu arrives à f/22, le diamètre est vraiment minuscule.
Il me semble qu'au temps de l'argentique, cet effets de "sur-échantillonnage" se voyait bien à F/32, et était déjà perceptible à f/22 (cf www.kenrockwell.com)
Réponse avec citation
  #12  
non lus 08/12/2009, 13h20
Avatar de manci
Membre
Ma pratique de la photo: Pratique régulière
 
Messages: 300
3685 Photiz
Ok j'ai compris. En fait j'essaye de transposer tout ça dans le monde de l'électronique et de la théorie du signal que je gère gère mieux que l'optique.

Si on prend un signal analogique carré de 50Hz que l'on échantillonne à plusieurs 100aine de MHz le signal numérique résultant sera toujours carré donc il n'est pas nécessaire d'autant échantillonner. Un échantillonnage plus faible aurait largement suffit à convertir numériquement ce signal carré avec une même qualité de sortie.

Si par exemple on échantillonne ce même signal à 5Hz on perd énormément d'information et on risque en sortie d'avoir un peu n'importe quoi.

En photo on a en fait un pseudo double échantillonnage. Je m'explique

On a 3 acteurs :

1. L'environnement à photographier qui représente notre premier signal. Théoriquement il a une définition infini, c'est un signal analogique pure.

2. Le capteur qui a pour mission d'échantillonner cet environnement. Donc on pourrait penser que plus on augmente la fréquence d'échantillonnage (+ de pixels) et plus on a une bonne définition. Mais un capteur ne se suffit pas à lui même pour échantillonner ce signal analogique. Pour cela il a besoin d'un objectif.

3. L'objectif capteur la scène dans l'espace pour la transcrire sous une forme compréhensible par le capteur.



C'est un peu comme en audio. Pour enregistrer une voix il y a 3 éléments.

1. La voix (vibration sonore, signal acoustique analogique pure)
2. Le micro (transformation vibration sonore/signal électrique, signal électrique analogique pure)
3. Un convertisseur numérique qui est l'équivalent du capteur en photo. (convertir un signal électrique analogique pure/électrique numérique pure)

On se rend donc bien compte ici que le micro/objectif est le 1er élément déterminant.
Si l'image envoyée au capteur par l'objectif ou le signal électrique envoyé au convertisseur par le micro est de mauvaise qualité ou tout simplement s'il déforme le signal réel, un echantillonnage infini ne sert a rien et n'apportera pas les information perdu aux étages supérieur.


voilà ma science... Enfin se que je pense en savoir
Réponse avec citation
  #13  
non lus 08/12/2009, 13h55
Avatar de red
red red est déconnecté
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: Canon 5D, Canon 24-70 f2.8L et 70-200 f2.8L
 
Messages: 1 013
5690 Photiz
Citation:
Posté par pm77g Voir le message
Ce dont tu parles c'est l'échantillonnage, et non la définition. La définition est caractérisée par la dimension du diamètre de ton objectif. Pour un telescope de 1 mètre de diamètre, tu auras une super définition.
Ca c'est la definition limitée par l'optique.
Ensuite tu as la manière dont tu enregistres l'information de l'image obtenue à telle définition. C'est l'échantillonnage (l'exemple des vagues dans le tutoriel).
D'une part, si tu espaces trop, ou si tu as de trop grand photosites, tu vas perdre de l'information sur l'allure de ta vague.
D'autre part, à partir du moment où ta vagues est bien échantillonée, augmenter l'échantillonnage (en retrecissant les photosites et augmentant leur nombre) ne va pas donner plus de détails sur ton image.

C'est aussi une erreur commune que font les astronomes amateurs qui achètent des telescopes en fonction du taux de grossissement. Tu peux grossir tant que tu veux ton image, mais à diamètre égal tu n'auras pas plus de détails. Tu verras les mêmes détails plus gros, c'est tout.
En revanche, sans augmenter le grossissement, mais en augmentant le diamètre de ton telescope, tu auras plus de détails.
Une fois que ce principe est compris, tu comprends que quant tu passes à l'enrgistrement de l'image sur les photosites, tu as un seuil qui est inutile de dépasser : quand ton photosite est plus petit que tes détails. Alors il ne sert à rien de les rendre encore plus petits, vu que les détails de l'image seront toujours aussi grands.


Non, je parle de la résolution (définition, c'est un autre terme) du capteur... On parle strictement capteur et de sa capacité à voir et à donner forme aux détails. Les objectifs ont leur propre résolution/définition, ce n'est pas le propos!




Plus de pixels = meilleure résolution/définition = détails mieux visibles.

Après, plus de pixels = plus cher et plus de bruit, c'est la technologie qui veut ça. C'est donc un compromis qu'il faut trouver et améliorer la technologie pour avoir moins de bruit.

Une télévision haute définition, c'est une télévision qui affiche une grosse résolution (nombre de pixels), pas une télévision qui fait du 100Hz...

Dernière modification par red 08/12/2009 à 13h58.
Réponse avec citation
  #14  
non lus 08/12/2009, 13h56
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
@ manci
Oui c'est juste,
en fait passer de l'objet (signal analogique pur), à travers l'objectif, tu convolues par la transformée de pascal de la fonction de transfert de l'objectif. A une dimension, la fonction de transfert de ton objectif c'est la fonction porte : Heavyside(t-t0)-Heaviside(t+t0)
Sa transformée de pascal (Transformée de fourier pour les opticiens) c'est un sinus cardinal.
Donc ton signale analogique est convolué par un sinus cardinal, il est grosso modo lissé par une gaussienne dont la largeur à mi hauteur (FWHM) dépend de la taille de l'ouverture.
Et il faut échantillonner tout ça à 2 dimensions avec des photosites. Si ton photosite a déjà la dimension de la FWHM de ta gaussienne, nul besoin de diminuer la taille du photosite (qui va définir la fréquence d'échantillonnage, la fréquence spatiale d'échantillonnage).
Donc plus tu fermes ton objectif, à f/16 par exemple, plus la taille de ton photosite sera grande par rapport à la FHWM de la fonction de lissage de type gaussienne.
Réponse avec citation
  #15  
non lus 08/12/2009, 14h11
Avatar de pm77g
Membre
Ma pratique de la photo: Pratique occasionnelle
Matériel: un esprit derrière 2 yeux
 
Messages: 499
4020 Photiz
@ red.
La résolution de ton image, telle que tu la vois dans l'oeilleton, est limitée par l'ouverture. Plus tu fermes le diaphragme, moins de détails tu auras, indépendemment des photosite.
Le passage par le CCD est une étape supplémentaire qui "peut" te faire perdre encore plus en résolution si tu mets des capteurs trop gros, comme dans ton exemple, et qui vont sous-échantilloner ton image.
Si tu mets des capteurs plus petits, comme tu le dis justement, tu vas gagner en résolution. Mais jusqu'à une certaine limite. Trop échantillonner ne te fera pas apparaître plus de détails que tu ne peux après être passé par l'objectif.

Je ne sais pas si je suis clair, je vais essayer de prendre ton exemple. Imagine que ton rond rouge, tu l'échantillonnes non pas avec 25 ou 100 photosites, mais avec 10000000000 de photosites. Il apparaîtra un rond mieux "arrondi". Mais ça restera un rond.
En revanche augmenter l'ouverture de ton objectif, aura pour effet que le rond deviendra peut-être dentelé, avant d'arrivers sur les photosites.
A ce moment-là, tu seras content d'avoir 10000000000 photosites car ils te permettront de capter la dentelure.
Réponse avec citation
VirusPhoto » Forum » Les articles VirusPhoto » Tutoriels sur la technique photo

Commentaire

Discussion précédente / suivante dans cette rubrique :
« Eclairer le portrait de mode, cinéma et nu - Atelier n°3 | Maitriser votre mise au point »

Non-lu Non-lu  
Bloguer ceci Outils de l'article Rechercher dans cet article Note: Note de l'article : 7 votes - moyenne : 3,57.

Outils de l'article Rechercher dans cet article
Rechercher dans cet article:

Recherche avancée
Noter la discussion
Noter la discussion:

 


LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Powered by vBulletin® Version 3.8.2 - Copyright ©2000 - 2013, Jelsoft Enterprises Ltd.
2006 - 2017 © ® VirusPhoto. Tous droits réservés.