Aller au contenu

Test Capteur Resolution


Messages recommandés

Bonjour,

 

Après les nombreuses interventions sur la résolution, les pixels, la taille des capteurs etc… j’ ai voulu faire un test en conditions réelles pour sortir de la théorie et passer à la pratique.

J’ ai posé le problème de la façon suivante:

avec un capteur donné quel est le meilleur paramètrage à faire pour pouvoir exploiter pleinement la résolution de l’ objectif du microscope?

 

  1. Rappel théorique:

je suis parti de la formule tirée du site internet suivant:

 

http://www.optique-ingenieur.org/fr/cours/OPI_fr_M03_C03/co/Contenu_14.html

 

 

 

Que trouve-t-on dans cette inégalité:

 

Le terme de gauche donne la résolution d’un objectif exprimée en terme de fréquence spatiale en mm-1 (plus ce chiffre est faible meilleure est la résolution) et le terme de droite la fréquence spatiale d’ échantillonnage du capteur exprimée en mm-1 (plus le chiffre est élevé plus la taille des photosites est petite)divisée par deux pour respecter le critère de Nyquist 

 

Remarque: pour les calculs j’ ai pris une longueur d’ onde moyenne à 0,55 µm, au lieu de prendre 2 fois l’ O.N. de l’ objectif j’ ai pris la somme de l’ O.N. de l’ objectif et de 70% de l’ O.N. de l’ objectif pour l’ O.N. du condenseur.

La caméra que j’ utilise est couplée à un projectif de 0,46 et la taille des photosites est de 2,2 µm. J’ ai pris comme critère de Nyquist la valeur 2.

 

A l’ aide de ces valeurs j’ ai construit le tableau suivant:

 

 

 
post-1334-0-60796000-1450450227_thumb.jpg

 

2) En pratique:    

                                             

Ensuite à l’ aide du logiciel de pilotage de la caméra j’ ai pris pour chaque objectif des photos au format TIFF (sans compression) d’ une diatomée qui présente des structures assez grossières en taille mais aussi des structures plus fines (dans les trous); toutes les photos sont prises avec le même réglage de contraste et saturation, j’ ai réglé l’ éclairage de Kolher et la mise au point avec soin.

Enfin j’ ai pris, pour chaque objectif une série de photos en faisant varier la résolution du capteur avec la fonction « skip » du logiciel (que l’ on peut traduire par sauter en français). Ainsi un photosite sur 1,2,3 ou 4 est utilisé au niveau du capteur; j’ ai recalculé à chaque fois la fréquence spatiale utile selon Nyquist. Le tout résumé dans le tableau suivant:

 

TestReso2.pdf

 

post-1334-0-60574100-1450450250_thumb.jpg

 

OUI signifie que le capteur peut enregistrer les plus petits détails fournis par l’ objectif et NON signifie qu’ il ne le peut pas (suivant la théorie).

 

3) Les résultats en photo:

 

La photo suivante à été faite avec l' objectif x 40 l' ovale montre la zone de mise au point:

post-27-0-00545700-1450446956_thumb.jpg

 

Les photos tests vont suivre car pour pouvoir juger je ne peux pas trop les compressées..........

 

P.S. j' ai du mettre les tableaux en pdf car je n' ai pas pu les insérer depuis numbers

 

 

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Re,

 

<>

 

C'est tout à fait normal, mais la pratique doit guider la théorie et la théorie faire avancer la pratique et ainsi de suite, ainsi va la science...

 

Je voudrais donc mettre en garde sur certains points.

 

Principes de précaution :

 

1° L’œil au microscope, méfiez-vous de l’œil et du cerveau . Ils sont tous les deux subjectifs.

2° Méfiez-vous de votre ordinateur et par la même occasion de votre appareil photo qui utilise des algorithmes non objectifs, en fait pour vous faire plaisir.

 

J'ai tracé à la main, en noir et blanc au départ un simple carré de 3 pixels X 3 avec un pixel blanc central.

 

Chaque carré de la grille correspond à un pixel quelle que soit sa taille à l'écran.

 

100 .JPG

Echelle UN (EUN)

 

Puis j'ai ensuite redimensionné ma première image avec un facteur de 4 X 

 

400 .JPG

4 X

Plutôt que de mettre des pixels blancs (vides ), entre chaque pixel originels bien réels eux ! L’algorithme utilisé (donc la personne qui l'a conçu !) bricole, pour que de loin , ( nous sommes à l'échelle du pixel !!) nous ayons l'impression  que l'image a été agrandie 4 X . Tromperie? Escroquerie ? Séduction !

 

Ensuite pour revenir à l'image initiale j'ai redimensionné deux fois de suite mon image à 50% à chaque fois.

 

 

50 de 400.jpg      50 de 50 de 400.JPG

2X                                                                      EUN

 

Commentaire ajouté: (Sur les manipulations d'images )

 

Quand on veut artificiellement, c'est à dire avec un logiciel qui ne manipule que des Zéros et des Uns, il faut faire des choix arbitraires : Ces choix constituent ce qu'on appelle  un algorithme .(0)

 

Quand on veut agrandir une image numérique

Une image numérique étant une matrice (ou une grille si vous préférez ) de points appelés pixels (1) vous comprenez bien que ces point , il faut bien les inventer ! C'est de l'agrandissement à vide, c'est à dire sans information supplémentaire.

Les algorithmes pour y arriver sont LIBRES , aucune loi (naturelle pas plus qu'humaine) n'impose la manière de remplir les espaces vides qui n'existaient pas. On peut donc mettre du blanc, dans ce cas, le contraste général de l'image diminue et çà ne fait pas joli ou sérieux   (et pourtant, c'est plus objectif) (2). Soit on va faire la moyenne des pixels adjacents, le contraste paraîtra donc le même et la tromperie passera inaperçue.

 

Quand on veut réduire la taille d'une image numérique 

Ici le problème est inverse, il faut faire des sacrifices et faire perdre des informations (3) et cette information est irrémédiablement perdue si on n'a pas pris le soin de travailler sur une copie de l'image en ayant conservé intact l'original !

 

Ce que j'ai voulu montrer dans ces exemples, c'est le travail des algorithmes de redimensionnement d'image , travail qui est totalement arbitraire.

 

Voilà donc, méfiez-vous des apparences et tenez-en compte dans vos jugements et raisonnements !

 

 

Amicalement.

 

(0) Un algorithme est ni plus ni moins qu'une recette de cuisine ! C'est la liste des instructions que l'on donne dans un programme à un ordinateur pour lui faire produire un résultat. 

Mais ce résultat est celui que son auteur a voulu ou cru vouloir faire faire à l'ordinateur.

Il faut donc en finir avec le mythe de l’algorithme qui menacerait l' humanité ou la liberté du citoyen .

 

(1) Un pixel est un élément d'information élémentaire et l'informatique le traitement de l'information sous forme binaire des 0 et des 1.

 

(2) Le problème se pose en Peinture quand on veut restaurer des peintures anciennes dont il manque des morceaux.

- Une méthode consistait à inventer les parties manquantes et à peindre à la place des vides laissés par les ravages du temps. On estime actuellement que ce n'est pas honnête.

- Remplacer les zones manquantes par une plage uniforme d'un ton neutre, cela ne fait pas très joli, mais c'est parfaitement honnête.

 

(3) Dans une image, il y a plusieurs niveaux d'information, et il faut être capable à tout moment de les distinguer !

 

Lien vers le commentaire
Partager sur d’autres sites

Bonjour Jean-Luc, et les autres...

Enfin j’ ai pris, pour chaque objectif une série de photos en faisant varier la résolution du capteur avec la fonction « skip » du logiciel

Comme le fait remarquer Tryphon, tout le problème est là... on ne sait pas ce que fait la caméra pour "changer" de résolution ! ... la taille du photosite ne change pas !
Ne vaudrait-il pas mieux utiliser des Apn et caméra différents avec des capteurs de résolutions différentes ( à la construction), par exemple un petit capteur 1/2.3" 5Mpx (caméra dédié) et un grand capteur APS-c 18Mpx (APN)... ce qui donne grossièremment des photosites de 2µ et 4µ ... sachant que les pixels seront traités par des algorythmes différents, mais nous seront sûrs de la taille des photosites par rapport à la résolution du microscope...
Votre avis ?
Amicalement
P.S. c'est un peu compliqué comme manip, mais une fois le microscope règlé il faut changer l'appareil de prise de vue "doucement" ... pour ne rien bouger. Je veux bien essayer, mon problème c'est la préparation adéquat...

Modifié par savant Cosinus
Lien vers le commentaire
Partager sur d’autres sites

Bonjour

Il s'agit d'une partie de micromètre dont le dessin présente undéfauut bien particulier, objectif 40x,

Voici deux clichés,- le premier: caméra 5 mpx, capteur 1/2.3"

                              - le deuxiéme : APN 18 mpx, capteur APS-c

... tous les deux, crop à l'échelle un.

Vous avez le droit de critiquer... :)

 

caméra 5 Mpx

post-1894-0-01856200-1450463065.jpg

 

APN 18 Mpx

post-1894-0-33055200-1450463105.jpg

 

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir Cosinus,

Ta caméra est elle dédiée microscopie, si oui, tu as un réducteur de 0,5 environ entre le capteur et l'image, qu'en est il de ton APN?

D'autre part, la comparaison ne peut être faite que tu sur des détails très fins comme la ponctuation des diatomées et en noir et blanc pour éviter les artefacts et avec des conditions d'observation identiques (filtres, ouverture des diaphragmes, lumière: qualité et intensité).

Cordialement

Claude 

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir,

 

l'image de Jean-Luc a un champ trop grand pour qu'on puisse apprécier la résolution ultime de l'objectif. Il faut regarder un trou de la diatomée, par exemple, en coupant un échantillon sans aucun groupement électronique de pixels. Ton image a 5 Mpixels que tu ne peux pas présenter en entier sur nos moniteurs de toutes façons.

 

La présentation de Cosinus  correspond plus à ce qu'il faut faire, mais il n'y a pas de fréquences spatiales élevées dans cette photo. Il est donc difficile d'apprécier la qualité des caméras.

 

La manip de Tryphon sur son carré est une excellente démonstration de l'empilement des FTM. La première transformation a rendu flous les bords (disparition des fréquences spatiales élevées) et baissé le contraste. La deuxième transformation a fait disparaitre définitivement le contraste...

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjour Claude,

Tu as raison, coté microscope les conditions et les réglages sont identiques... malheureusement coté prise de vue tout est biaisé, la caméra est effectivement montée sur un réducteur de champ 0.5x dont les lentilles n'arrangent rien et l'APN capte directement l'image primaire au foyer. D'autre part je pense que les algorythmes des fabricants d'appareils photos sont "faits pour faire de jolies photos" alors que la caméra dédiée (caméra industrielle) "se moque de l'esthétique"...ce qui fausse un peu plus la comparaison.

Jérôme,

Il me manque une mire correcte et des caméras de résolutions différents... mais tu doit avoir ça... B)

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Images objectif x10 ayant une résolution spatiale calculée à 170:

 

1) avec le capteur en pleine résolution: fréquence spatiale de 227 (454/2); Les détails visible à l' oculaire sont bien reproduits

 

post-27-0-36411800-1450468162.jpg

 

2) avec un photosite sur deux: fréquence spatiale de 114 (227/2). Des détails disparaissent.

 

post-27-0-99719900-1450468292.jpg

 

3) avec un photosite sur quatre: fréquence spatiale de 57 (114/2); Perte de détails.

post-27-0-71143700-1450468608.jpg

 

4) avec un photosite sur 8: fréquence spatiale de 28. Très insuffisant

 

post-27-0-06585000-1450468743.jpg

 

La théorie est confirmée... ouf !

 

Lien vers le commentaire
Partager sur d’autres sites

Image objectif x40: résolution spatiale à 111:

 

1) Capteur à 227: OK

post-27-0-85449600-1450470211_thumb.jpg

 

2) Capteur à 118: OK (limite)

post-27-0-53532400-1450470266_thumb.jpg

 

3) Capteur à 57: insuffisant

post-27-0-36914500-1450470386.jpg

 

4) capteur à 28: insuffisant

post-27-0-33976600-1450470443.jpg

 

P.S. je n' ai pas recardé au carré les 2 derniers images mais ont voit bien la différence

 

 

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir à tous,

 

Merci Typhon d' avoir fait apparaître les tableaux.

Merci pour vos remarques; J' espère avoir été clair dans mes explications

Je n'ai pas utilisé photoshop

J' avais songé utiliser des capteurs différents avec des projectifs différents mais j' avais peur d' introduire un biais;

Dans cette procédure et pour un même objectif les caractéristiques du système sont les mêmes. Seul les capacités du capteur changent

Il se peut que la mise au point est légèrement variée d' un objectif à l' autre mais pas avec le même objectif (j' ai utilisé un ruban adhésif pour bloquer la vis micrométrique).

Je n' ai pas utilisé le binning mais un fonction du logiciel qui permet d' ignorer un photosite sur 2 ou bien 3 sur 4 etc..... Cette solution m' a parue la plus simple à mettre en oeuvre; Il n'y a pas création de pixels intermédiaires puisque la taille des images (en pixel) diminue.

Je n' ai pas pu avec cette préparation utiliser les objectifs 60 et 100 car leurs distances de travail était trop faibles (je ferais des tests avec une autre préparation.

Toutes les images ont été obtenues avec le même réglage de contraste.

Ma conclusion (provisoire) est que pour les objectifs ordinaires faibles ( jusque' à 40) il faut disposer d' un capteur au format 4/3 d' au moins 5 millions de pixels.....

Cordialement,

JL

 

Lien vers le commentaire
Partager sur d’autres sites

Conditions et résultats des essais

 

Microscope Orthoplan

 

Objectif Nikon Fluor 40x, ON 0,85 160 /0,11-0,23 mm, pas utilisé à pleine ouverture (2/3 environ)

 

Condenseur achromatique ON 0,9

 

Utilisation ou non d’un projectif 0,5x sans marque.

 

Le réglage du condenseur n’est jamais retouché. L’intensité peut varier ainsi que la mise au point car je ne suis pas parfocal entre caméras.

 

Caméra Motic 3 Mpixels

Capteur de 6,55 x 4,92 mm. Pixel de 3,2 x 3,2 µm

 

Caméra Tucsen Digiretina 16 de 16 Mpixels

Capteur de 6,12 x 4,6 mm. Pixel de 1,335 x 1,335 µm (donnée constructeur, je ne suis pas sur que le nanomètre soit significatif !)

 

Les deux caméras peuvent être utilisées à pleine résolution ou avec 4 fois moins de pixels, mais dans ce dernier cas je n’ai aucune idée de ce que fait l’électronique du capteur pour diviser par 4 (coefficient deux sur chaque axe) le nombre de pixels : ne pas prendre en compte un pixel sur deux et ignorer une ligne sur deux ou moyenner 4 pixels voisins. J’ai tendance à penser que c’est l’ignorance des pixels qui est utilisée, car ça gagne du temps par rapport à la collecte de tous les pixels et leur moyennage, mais il y a des processeurs rapides dans la caméra et aucune information dans la squelettique documentation...

 

Les images ont été enregistrées en .png pour ne pas faire de compression/décompression.

 

Je n’ai fait aucun traitement d’image, sauf sélectionner un morceau d’image à peu près au même endroit et à peu près de la même taille sur toutes les prises de vue. J’ai ensuite zoomé à l’écran ces échantillons à la même dimension où on peut voir les pixels élémentaires de la prise de vue, plus ou moins gros évidemment.

 

Je n’ai pas cherché à faire de belles images, on pourrait les améliorer avec des logiciels appropriés…

Diatomée utilisée : Stauroneis phoenicenteron post-2042-0-64461900-1450716808_thumb.png

 Un calcul très approximatif de l’objectif (supposé limité par la diffraction) donne une résolution limite de 1,22 x 0,55 : (0,7 x 2) = 0,48 µm (soit 19 µm dans le plan image). Le critère de Nyquist souvent invoqué (à tort) correspondrait à des pixels de 10 µm.

 

Les trous de la frustule sont espacés d’environ 0,65 µm. On est donc proche de la limite. Au grossissement de 40, dans le plan image, qui est le plan du CCD, l’espacement entre trous est de 0,65 x 40 = 26 µm.

 

 

Caméra 3 Mpixels :

 

 

post-2042-0-83916100-1450716851_thumb.png

 

On réussit à peu près à compter 8 pixels entre centre de trous, ce qui fait 24,8 µm, cohérent avec les 26 évoqués plus haut. Les trous sont bien visibles, quoique échantillonnés (« pixellisés »).

 

La même caméra sous-échantillonnée par le capteur avec 0,75 Mpixels (correspondant à des pixels de 6,4 µm):

 

post-2042-0-35829300-1450716874_thumb.png

 

La même caméra avec le projectif 0,5 x, ce qui revient à des pixels de 6,4 µm :

 

post-2042-0-29663500-1450716895_thumb.png

 

Ce devrait être la même chose que la précédente ; ça y ressemble un peu avec des différences dues à la méthode de sous-échantillonnage d’une part et aux aberrations introduites par le projectif d’autre part. Dans ces deux cas, les images ne sont pas belles, mais on perçoit que la fréquence spatiale correspondant aux trous existe

 

La même caméra avec à la fois le projectif 0,5x et le sous-échantillonnage au niveau de la caméra, ce qui revient à un pixel équivalent à 12,8 µm :

 

post-2042-0-40289300-1450716922_thumb.png

 

A l’œil on ne perçoit plus grand’chose des détails de l’objet ; on devine une fréquence spatiale avec des crêtes orientées haut-gauche vers bas-droite, qui correspondent à une fréquence spatiale présente dans la diatomée, de plus basse fréquence que l’espace entre trous.

 

 

Caméra 16 Mpixels

 

Pleine résolution :

 

post-2042-0-09485600-1450717249_thumb.png

 

La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels. C’est le bruit qui commence à devenir perceptible (réglage de la caméra probablement pas optimisé ; je débute avec celle là et le logiciel pour Mac est faiblard). La visualisation de la forme des trous est excellente.

 

La même caméra utilisée à résolution moitié, soit 4 Mpixels, d’où pixel théorique de 2,7 µm à comparer aux pixels de 3 µm de la première caméra :

 

post-2042-0-89768400-1450717076_thumb.png

 

 

Curieusement le contraste est fort, mais la définition misérable.

 

Je n’ai pas pu utiliser la caméra 16 Mpixels avec le projectif 0,5 car il n’y a pas de fonction zoom sur l’écran de l’ordinateur quand on est dans le logiciel de commande de la caméra qui visualise la totalité du champ de la caméra sur l’écran. On ne voit donc pas les détails fins et la mise au point est impossible !

 

 

Conclusion

 

Une première conclusion simple : ne pas utiliser les caméras à des définitions (électroniques) inférieure à la définition nominale. C’est en tous cas vrai pour ces deux caméras.

 

La conclusion, objet de tant de débats : un échantillonnage proche de Shannon-Nyquist est très insuffisant pour obtenir une image de bonne qualité. Il est suffisant pour capter la fréquence spatiale correspondante, que l’on retrouvera dans le plan des fréquences spatiales si on fait la transformée de Fourier de l’image, et c’est tout ce que Shannon-Nyquist ont voulu dire, mais pas du tout adapté à de l’imagerie de bonne qualité.

 

Un échantillonnage à 3,2 microns, c’est à dire Nyquist /3 est correct, mais montre encore une dégradation. L’échantillonnage à 1,3 microns, soit Nyquist/7,5 paraît bien suffisant. On peut probablement tolérer moins, mais je n’ai que ces deux caméras !

 

Cette conclusion est bien connue depuis longtemps par les personnes qui s’occupent d’imagerie.  Elle est ignorée ou occultée par des gens qui ont mal digéré des rudiments de traitement du signal et/ou qui ont des intérêts commerciaux contraires.

 

 

Amicalement

 

Modifié par Tryphon T
Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Bonjour Jérôme,

je n’ai aucune idée de ce que fait l’électronique du capteur pour diviser par 4 (coefficient deux sur chaque axe) le nombre de pixels


Le mode binning d'une camera ne divise rien du tout. Il ne fait aucune division, il ne supprime pas des informations arbitrairement, contrairement aux algorithmes de redimensionnement dont j'ai donné des exemples.
Au contraire, il regroupe 2, 3 , 4 photo-sites adjacents en X et en Y , à la prise de vue pour augmenter la SENSIBILITÉ du capteur .
Bien entendu cela se tait au détriment de la RÉSOLUTION .
C'est un procédé utilisé en astronomie mais qui n'a aucun intérêt en microscopie.
Cela n'a donc rien à voir avec un post traitement informatique de l'image , car à ce moment là l'image est figée et toute manipulation en plus ou en moins du nombre de pixel fait perdre de l'information.

 

Curieusement le contraste est fort, mais la définition misérable.

 

Rien de curieux là dedans, l'explication est donnée ci-dessus.

 

Cette conclusion est bien connue depuis longtemps par les personnes qui s’occupent d’imagerie.  Elle est ignorée ou occultée par des gens qui ont mal digéré des rudiments de traitement du signal et/ou qui ont des intérêts commerciaux contraires.

 

Il y a des tas de personnes qui s'occupent d'imagerie (pas moi, je suis trop nul dans ce domaine) et de très bon niveau, qui ne pensent pas comme toi et qui l'écrivent.

Bon,ce n'est pas le nombre d'opinons dans un sens ou un autre  qui fait la vérité, je préfère me faire une idée moi-même.

 

 

(Pour bien digérer, il faut commencer par bien manger !)

 

La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels.

Oui, mais, il ne faut pas en tirer des conclusions erronées.

Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée" .

 

Le problème est de savoir si ces pixels plus petits correspondent à une réalité.

 

Pour celui qui regarde l'image, les pixels existent bien , même si on multiplie leur nombre par 10, 100, 1000 !

Et si on regarde toujours l'image finale à la même échelle, l'image sera pratiquement toujours la même.

Mais il n'y aucun détail supplémentaire !

Deux ponts non résolus , ne le deviendront pas pour autant en diminuant va taille des photo-sites.

 

Amicalement.

 

Pardon pour les ajouts, mais je n'avais pas fini mon post. Je valide à chaque étape, cela me permet de ne pas perdre mes données, malgré la mémoire tampon de l' éditeur.

Lien vers le commentaire
Partager sur d’autres sites

C'est dur à suivre car Tryphon fait des rajouts dans ses messages...

 

"

Citation

Curieusement le contraste est fort, mais la définition misérable.

 

Rien de curieux là dedans, l'explication est donnée ci-dessus." Pas du tout : la caméra à 16 Mpixels, sous-utilisée à 4 Mpixels devrait donner une image voisine de la caméra 3 Mpixels or l'image est bien plus mauvaise.

 

"Bon,ce n'est pas le nombre d'opinions dans un sens ou un autre  qui fait la vérité, je préfère me faire une idée moi-même."

 

Je pense que les images que j'ai envoyées sont assez parlantes.

 

"Oui, mais, il ne faut pas en tirer des conclusions erronées.

Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée" .

 

Le problème est de savoir si ces pixels plus petits correspondent à une réalité.

 

Pour celui qui regarde l'image, les pixels existent bien , même si on multiplie leur nombre par 10, 100, 1000 !

Et si on regarde toujours l'image finale à la même échelle, l'image sera pratiquement toujours la même." Pas du tout ! tu trouves que les images que j'ai mises, qui sont à la même échelle, sont les mêmes !!!

 

"Mais il n'y aucun détail supplémentaire !" C'est une idée fixe ! je n'ai jamais dit qu'on verrait plus de détails. L'objectif donne une image des trous de la frustule. Le CCD se doit de représenter ces trous le mieux possible en ne dégradant pas l'image donnée par l'objectif.

 

"Deux points non résolus , ne le deviendront pas pour autant en diminuant la taille des photo-sites." Bien sûr ! ai-je jamais dit ça ? Encore une fois la microscopie consiste à faire une image exacte d'un végétal, d'un animal, d'un minéral,...pas de séparer deux points. C'est un travail d'astronome.

Lien vers le commentaire
Partager sur d’autres sites

Pardonnez moi, mais comme dans toutes ces discussions qui s'éternisent, vous avez tous les deux raison (... je sais ce n'est pas le but... :rolleyes: )

 - oui Tryphon: - la multiplication des pixels ne crée pas plus de détails... ce que Jérôme n'a jamais dit !

                        - effectivement la confusion est souvent faite... à tort, et pleins de pixels ne font pas forcement une belle image !

 - oui Jérôme: - le fait d'avoir plus de pixels permet de produire une meilleurs image (tu le prouves)... ce que Tryphon n'a jamais contesté !

                       - pour faire une belle image il faut plein de pixels... et plein de talent !

 Vous ne parlez pas de la même chose... Jérôme veut une image la plus fidèle possible, alors que Tryphon veut une résolution maximale.

 Amicalement

 Cosinus... qui est très content d'avoir appris plein de trucs... B) !

Modifié par savant Cosinus
Lien vers le commentaire
Partager sur d’autres sites

Bonjour Jean-Luc,

 

Ce serait effectivement une très bonne idée que d'autres membres fassent le même genre d'essais avec des matériels divers car cela permet de mieux cerner la qualité d'enregistrement des CCD que nous utilisons.

 

Les photos que j'ai prises cherchent uniquement à qualifier la qualité de restitution d'une même image par des CCD, pas à mesurer la qualité de la chaîne complète : éclairage, condenseur, objectif.

 

Je ne suis pas sûr que la diatomée ait une couleur. Les différences de nuances sont dues à la balance des blancs que j'ai réglé en automatique pour les deux caméras et qui n'a pas donné le même résultat.

 

Bonjour Cosinus,

 

La résolution maximale est d'abord une question de qualité du microscope, en particulier l'objectif, dont la contribution à la FTM est primordiale, d'éclairage, de coloration de la préparation ou d'autres moyens d'augmentation du contraste. Quand tout ça est optimisé on a la "meilleure image possible, c'est à dire avec la meilleure résolution et le meilleur contraste" au foyer de l'objectif (ou de la lentille de tube si on travaille avec des objectifs "infini") : "image intermédiaire".

 

C'est ta question qui est à l'origine de cette discussion : comment visualiser au mieux cette image sur un écran. L'écran a un peu disparu de la discussion qui s'est concentrée sur la plus ou moins bonne qualité des CCD pour enregistrer cette image intermédiaire sans la dégrader.

 

J'espère avoir montré que le critère de Shannon-Nyquist développé à l'origine pour des problèmes d'échantillonnage de signaux temporels ne s'applique pas tel quel en imagerie.  Ce théorème dit que l'information spectrale est présente. Il ne dit pas qu'il n'y a pas de dégradation du signal. D'ailleurs les enregistrements audio professionnels sont faits à 192 kHz et pas à 30 kHz qui suffiraient si on appliquait strictement ce critère aux sons audibles. Donc 6 fois mieux que Nyquist. Est-ce-qu'on n'a pas vu quelque chose d'approchant dans la discussion ci-dessus ?

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

La résolution maximale est d'abord une question de qualité du microscope, en particulier l'objectif, dont la contribution à la FTM est primordiale, d'éclairage, de coloration de la préparation ou d'autres moyens d'augmentation du contraste. Quand tout ça est optimisé on a la "meilleure image possible, c'est à dire avec la meilleure résolution et le meilleur contraste" au foyer de l'objectif

 

Les photos que j'ai prises cherchent uniquement à qualifier la qualité de restitution d'une même image par des CCD, pas à mesurer la qualité de la chaîne complète : éclairage, condenseur, objectif.

Pourquoi n'as tu pas appliqué ces principes à tes photos?

Au départ, le réglage du microscope est capital pour obtenir la meilleure photo possible.

Si ton microscope n'est pas bon ou qu'il est mal réglé, tu n'auras pas de belles photos quelle que soit la caméra et le traitement d'image utilisé.

Cordialement.

Claude

Lien vers le commentaire
Partager sur d’autres sites

Bonjour Claude,

 

ce n'était pas mon but. Je ne cherchais pas à obtenir la meilleure photo possible de cette diatomée mais à montrer l'influence de divers échantillonnages du CCD sur la qualité de l'image finale. Il me fallait une image de base, avec des détails de dimensions proches de la résolution de cet objectif et ne pas la changer quand je changeais la caméra, le projectif et l'échantillonnage.

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

:) ... j'espère que Jérôme avait pris soins de régler son microscope... de toute façon son but était de comparer les CCD avec une même image (bonne ou mauvaise... à la limite).

 Comparer le travail que chacun peut faire dans son coin va être très difficile et peu rigoureux, dans la mesure, ou justement, il y a beaucoup de paramètres qui entrent en jeu...

 Ce qui n'empêche pas chacun de donner un exemple de ce qu'il peut faire avec sa propre méthode et donner son avis... cela nous donnera "une idée de la qualité", critère subjectif mais finalement c'est celui que nous percevons sur le forum...

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Pardonnez moi, mais comme dans toutes ces discussions qui s'éternisent, vous avez tous les deux raison (... je sais ce n'est pas le but... :rolleyes: )

 - oui Tryphon: - la multiplication des pixels ne crée pas plus de détails... ce que Jérôme n'a jamais dit !

                        - effectivement la confusion est souvent faite... à tort, et pleins de pixels ne font pas forcement une belle image !

 - oui Jérôme: - le fait d'avoir plus de pixels permet de produire une meilleurs image (tu le prouves)... ce que Tryphon n'a jamais contesté !

                       - pour faire une belle image il faut plein de pixels... et plein de talent !

 Vous ne parlez pas de la même chose... Jérôme veut une image la plus fidèle possible, alors que Tryphon veut une résolution maximale.

 Amicalement

 Cosinus... qui est très content d'avoir appris plein de trucs... B) !

 

Cher Cosinus,

 

 

mais comme dans toutes ces discussions qui s'éternisent

 

Cette réflexion ,m'a fait réfléchir une partie de la nuit, et je comprends mieux maintenant ce point de vue si répandu (dans les forums).

 

Il est des questions que je me pose depuis mon enfance (disons à l'âge  dix, onze ans) . Il y en a énormément d'autres !!!

L'Univers est-il fini? Infini?

L'Univers est-il continu ? , discontinu ?

Et je commence à peine à me forger une opinion sur ces deux questions !

 

J'estime personnellement (ce n'est pas un pléonasme, mais volontaire)  qu'on a toute la Vie, pour répondre aux questions qui nous sont posées justement par le fait de vivre.

Alors les discussions ici peuvent bien s' "éterniser" quelques années de plus, je ne demande que çà, et le plus longtemps possible.

 

Certains trouveront tout de suite des réponses auprès des "curés", de l' "école",  ou des "gourous", et n'en changerons plus de leur vivant ou alors exceptionnellement une seule fois.

 

D'autres , comme moi, continueront à chercher, même s'ils ont l'impression d'avoir trouvé. Et si je m'étais trompé?

La Vie dans ce cas consiste à accepter, que nous ne savons pas grand chose . 

Dans l'autre cas , nous sommes étouffés de certitudes.

 

D'autres abdiquerons rapidement devant la difficulté de se faire une opinion soi même et adopteront celle de la majorité bien pensante.Et on sait que la majorité des gens adopte l'opinion de la majorité des autres. Pensée unique donc.

 

Je comprends donc pourquoi on me soupçonne de vouloir "avoir raison" ou "avoir le dernier mot", attitude puérile (niveau maternelle) que certains gardent toute leur vie... (Voir sur d'autres forums).

 

Après, ici dans MikrOscOpia on est libre de lire, de ne pas lire ; de participer (il vaut mieux sinon on n'existe même pas) ou pas ; d'être d'accord ou pas ; d'ouvrir des sujets ou pas. On est aussi libre de se tromper, ce n'est pas grave.

(vous voyez, tout est possible quand on sait attendre, je viens de découvrir à quoi sert le point virgule : Eurêka !)

Mais de grâce, ne quittez pas le forum (comme dans d'autres forums) ou ne vous insultez pas (comme dans d'autres forums) parce qu'on ne pense pas comme vous. C'est décidément puéril (niveau cour de maternelle).

 

Je constate bien au contraire la haute tenue des débats : merci à tous.

 

Amicalement. 

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

D'ailleurs les enregistrements audio professionnels sont faits à 192 kHz et pas à 30 kHz qui suffiraient si on appliquait strictement ce critère aux sons audibles. Donc 6 fois mieux que Nyquist. Est-ce-qu'on n'a pas vu quelque chose d'approchant dans la discussion ci-dessus ?

Bonjour Jérôme.

 

Tu justifie en raisonnement en optique par un comportement en acoustique.

Cela peut se défendre, mais ce n'est pas moi qui le ferais.

 

En science, il y a le principe d' Ockham (ou Occam) dit Principe du Rasoir d' Ockham.

En commerce, il y a le principe de l'argument de vente,.

La course aux Mega-pixel, comme la course aux KHz peut être interprétée plus comme un argument de vente qu'une nécessité scientifique.

C'est mon opinion en tout cas cela ne constitue pas une preuve.

 

Je me souviens des normes HI FI 20 / 20 000 .

 

Qui entend le 20 et qui entend le 20 000.?

 

On a essayé de me démonter que quand une chaîne Hi FI, est bonne de 20 à 20 000 Hertz , elle est excellente dans les fréquences audibles .

Mais à quoi ça sert de fabriquer des amplis, et des haut parleurs qui débitent du 172 000 Hz ? (je sais que ce n'est pas possible)

Avec des courbes, de belles formules, c'est comme en politique , on peut tout démontrer, tout prouver.

Il y aura toujours des gens pour acheter des Bugatti Veyron Grand Sport Vitesse ou des Ferrari FXX K pour ne pas parler des Koenigsegg Agera RS

et être limité par le code de la route à 30, 50, 90 ou 130 Km/h.

Quand un ampli a une montée en signal carré époustouflante ou une voiture de sport un 100 Km/h départ arrêté foudroyant, ce n'est pas parce qu'elle dépasse de 10 fois la vitesse autorisée par la loi, ce sont des choses différentes.

Ne confondons pas les lois du commerce, avec la réalité scientifique, si tant est qu'on la connaisse. Les lois du commerce et la psychologie humaine, on les connais mieux.

 

Amicalement.

Lien vers le commentaire
Partager sur d’autres sites

J'essaie simplement d'expliquer que l'échantillonnage au sens de Nyquist-Shannon conserve l'information spectrale mais dégrade le signal. Que pour ne pas trop dégrader le signal, il faut échantillonner à des fréquences plus élevées.

 

Le traitement du signal a de fortes ressemblances entre des signaux électriques, issus de sources différentes : audio, radio, hypefréquences  (signaux monodimensionnels, fonction du temps) et de l'optique (signaux bidimensionnels dans l'espace). Beaucoup de règles qui s'appliquent aux uns s'appliquent aux autres.

 

Si des professionnels numérisent les signaux à 192 kHz / 24 bits, c'est pour ne pas les dégrader, les conserver et pouvoir faire du traitement dessus. Ensuite, ils sont repassés à 44 kHz et moins de niveaux pour diffusion grand public. Apparemment ils se sont aussi aperçus que l'échantillonnage Nyquist-Shannon dégradait le son, comme j'espère t'avoir montré qu'il dégradait l'image...

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

Bonjour Tryphon,

Je comprends que le mot "s'éternisent" te fasse réagir, mais ce n'était pas le principal de mon post...

D'autre part, tu sais, "les bons curés" et "les bonnes écoles" n'interdisent pas de réfléchir... tu as sûrement eu de mauvaises fréquentations... B) !

Amicalement

Lou Ravi ... en ces temps de Noël ...   

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Tu as peut-être raison, peut-être tort, je ne sais pas.
Je cherche à comprendre et je n'ai pas encore compris.
Quand j'aurais compris, je te le dirais, sois-en sûr. Et je serais content.

Mais pour moi, des professionnels çà ne veut rien dire, en tout cas pas s'ils ont raison de le faire.
Les professionnels ne fabriquent pas les machines qu'ils utilisent, et je sais bien qu'avoir la dernière machine, la plus chère possible , augmente leur prestige, et comme ce n'est pas eux qui payent , alors pourquoi s'en priver.
La course à l'appareillage, je connais.

192 000 Hz alors qu'on plafonne à 10 000 et légèrement plus quand on est jeune, çà me fait rigoler.
Le son est peut-être meilleur sur une courbe, un appareil a affichage numérique, mais comme on ne l'entend pas, cela me fait une belle jambe (et vous savez que j'ai pratiqué la savate!)

Pour l'image c'est pareil, si l'image est meilleure sur les courbes, mais si on ne voit aucune différence à l'écran où au microscope, cela me fait deux belles jambes.

Attention, quand on sait, toutes les astuces qui sont employées dans les appareils numériques pour "améliorer le signal" , pour que l'image (ou le son) ressemble le plus possible à nos attentes, il faut pouvoir dans une image déterminer "qui fait quo"i ? L'échantillonnage ou le traitement magique du signal.

J'ai demandé hier à un photographe quelle différence il voyait au niveau de la qualité entre son reflex numérique de grand prix et son iphone 6, : à par la richesse des réglages la qualité de l'image était identique.

Attendons d'autres informations qui justifient l'hyper-échantillonnage, et non les pratiques de certains professionnels.

Amicalement.
 

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

. tu as sûrement eu de mauvaises fréquentations...

 Sûrement: D'une manière certaine, évidente , mais je crois en bonne objectivité que tu voulais dire "peut-être" .

 

Je comprends que le mot "s'éternisent" te fasse réagir,

Pas du tout . Je ne réagis pas comme tu l'entends ou tout au moins comme je pense que tu l'entends.

Ce n'est pas un réflexe conditionné , j'ai simplement, comme je te l'ai expliqué , enfin compris le comportement de certains lecteurs face à une discussion longue et ardue.

 

Bien entendu, ce n'était qu'une parenthèse, revenons à nos pixels.

 

Amicalement.

Lien vers le commentaire
Partager sur d’autres sites

"Pour l'image c'est pareil, si l'image est meilleure sur les courbes, mais si on ne voit aucune différence à l'écran où au microscope, cela me fait deux belles jambes."

 

Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus.

 

"192 000 Hz alors qu'on plafonne à 10 000 et légèrement plus quand on est jeune, çà me fait rigoler." Ne pas confondre fréquence acoustique (ou fréquence spatiale) et fréquence d'échantillonnage. C'est le sujet.

 

Tryphon est un Saint Thomas au carré : (Saint Thomas)2. A Saint Thomas, Notre Seigneur a dit : “Parce que tu m’as vu, tu as cru. Heureux ceux qui n’ont pas vu, et qui ont cru !” » (Jn 20, 24-29).

 

Tryphon voit (des images virtuelles, l'effet de l'échantillonnage) et ne croit toujours pas...

 

Bien amicalement et Joyeux Noël

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus.

 

J'ai bien répondu, il me semble.

 

 

La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels.

 

Oui, mais, il ne faut pas en tirer des conclusions erronées.

Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée"

 

Dans tous les autres cas, tu nous fait voir des images sous-échantillonnées, cela n'a aucun intérêt, tout le monde connait déjà le résultat.

 

Ensuite, c'est Lapalisse qui parle.

Si je prends  en image  un sujet avec des sites de 10 µ et ensuite le même sujet avec des sites de 5 µ , deux cas de figure.

 

1- Les pixels de l'image A et l'image B à l'écran sont de la même taille , et l'image B sera deux fois plus grande .

2- les images A et B sont à la même échelle et les pixels de l'image B seront donc deux fois plus petits que ceux de l'image A.

C'est ce que tu as fait, alors pourquoi s'étonner que la " pixelisation " , c'est à dire la vision des pixels en tant que tels, ait diminué de moitié (presque disparus dis-tu.) ?

 

Maintenant si nous sur-échantillonnons non pas de deux fois, mais de dix, les pixels ne seront plus du tout visibles, à la même échelle , l'apparence de la photo en sera nettement améliorée, donc plus "agréable" au regard mais ce n'est pas pour autant qu'elle sera plus conforme à la réalité !  (1) Sauf pour St Thomas !

 

Quelle que soit la taille du photo-site, la photo numérique, sera toujours une photo , et chaque pixel sera NET .

Un pixel est toujours net, même si la photo n'est pas nette !

 

 

 

(1) Cette réalité on peut la connaitre par exemple en changeant la longueur d'onde de la source d'éclairement.

Si on utilise des électrons, on pourra juger si une photo "photonique" est vraie ou non, mais quand on arrive à la limite de diffraction du ME, on est à nouveau dans l'incertitude quand on prétend regarder "plus fin " que cette limite.

 

 

Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus.

 

Oui, il y a bien une différence en ce qui concerne la taille des pixels quand l'image est à la même échelle.

Il y a plus de pixels dans une même surface et donc, l'image numérique a une meilleure résolution.

 

Mais ce n'est pas pour autant qu'on voit mieux la RÉALITÉ.

 

Même avec un nombre astronomique de pixels, un capteur couplé avec un microscope photonique ne donnera jamais la résolution d'un microscope électronique et l'image, qui sera bien réelle, avec une résolution astronomique bien réelle ne contiendra pas plus d'informations qu'en appliquant le facteur de Nyquist.

 

Ensuite comme chaque pixel couleur est le résultat d'interpolation des valeurs des pixels adjacents , plus le nombre de pixels est élevé et plus l'image paraîtra bonne, par effet de renforcement du contraste. Si en plus, le signal est traité, par des algorithmes inconnus (de moi), dès la sortie du capteur, et comme le but d'un appareil photo est de faire des photos humainement correctes, le résultat final ne peut qu'en être plus satisfaisant.

 

Refais la même expérience avec des capteurs monochromes et en format d'image brut de capteur, et là nous pourrons discuter plus sérieusement. 

 

En imagerie scientifique, la couleur, telle qu'elle est reconstituée actuellement me parait rédhibitoire.

 

Il ne sert à rien de faire des test avant/après comme en photographie généraliste, et  en couleur, quand on travaille en microscopie en haute résolution, c'est à dire à la limite des capacités théoriques des objectifs. On n'est jamais sûr de ce que l'on voit, car tous les détails ne sont pas séparés et tout ce qui apparaît entre les détails, n'est que fantasmagories.

 

Amicalement.

 

Lien vers le commentaire
Partager sur d’autres sites

Refais la même expérience avec des capteurs monochromes et en format d'image brut de capteur, et là nous pourrons discuter plus sérieusement.

 

... le problème c'est que comme dit par ailleurs, nous sommes "condamnés" à utiliser des capteurs couleur avec un "traitement d'image"... ce qui pour le forum est préférable à pas d'image du tout, pour moi la théorie a ses limites, mais elle a tout à fait sa place ici. Je l'ai déjà dit, je m'instruis.

 

Amicalement.

Lien vers le commentaire
Partager sur d’autres sites

  • 3 semaines après...

Bonjour,

 

Dans mon message de départ je n' avais pas pu continuer mon test avec les objectifs x60 et x100 à immersion pour cause de problème de distance de travail trop courte avec la préparation.

J' ai enfin trouvé un autre sujet: une diatomée récupérée sur des coquilles d' huitres mise entre lame et lamelle dans l'eau. Je pense que c' est pleurosigma angulatum. Le nombre moyen de stries pour 10 µm va de 18 à 22 (Maurice Loir);

J' ai mesuré une distance moyenne entre 2 aérolations de 0,65 µm soit un peu plus de 15 stries pour 10 µm:

 

post-27-0-72878400-1452176180_thumb.jpg

 

Cette photo permet d' avoir une vue d' ensemble (obj. x100) le contraste a été rehaussé pour mieux visualiser les aérolations

 

Les autres photo sont dans le message suivant

Lien vers le commentaire
Partager sur d’autres sites

Voici les photos prises dans les même conditions qu' au départ pour:

 

L' objectif x60 recardées en 312x232 pixels fréquence capteur 227 (OK)

 

post-27-0-08408900-1452176644.jpg

 

L' objectif x60 recardées en 312x232 pixels fréquence capteur 114 (OK)

 

post-27-0-59971700-1452176918.jpg

 

L' objectif x60 recardées en 312x232 pixels fréquence capteur 57 (Insuffisant )

 

post-27-0-39436500-1452177135.jpg

 

L' objectif x60 recardées en 312x232 pixels fréquence capteur 28 (Insuffisant)

 

post-27-0-20472800-1452177170.jpg

 

L' objectif x100 recardées en 312x232 pixels fréquence capteur 227 (OK)

 

post-27-0-42066800-1452177236.jpg

 

L' objectif x100 recardées en 312x232 pixels fréquence capteur 114 (OK)

 

post-27-0-03502100-1452177314.jpg

 

L' objectif x100 recardées en 312x232 pixels fréquence capteur 57 (Insuffisant mais on aperçoit qq stries)

 

post-27-0-09962300-1452177423.jpg

 

L' objectif x100 recardées en 312x232 pixels fréquence capteur 28 (Insuffisant)

 

post-27-0-25320600-1452177488.jpg

 

Pour bien se rendre compte du résultat il faut augmenter le contraste des photos et les remettre aux mêmes dimensions en cm; 

Bien qu' il soit perfectible ce test permet de se faire une idée de la réponse du capteur.

 

cordialement,

JL

 

 

 

 

 

 

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

Bonjour Jean-Luc,

 

c'est bien de faire des essais réels avec des objectifs différents. Je pense cependant qu'il faudrait ré-agrandir les photos (ou un fragment) pour qu'elles soient à la même échelle, ce qui faciliterait la comparaison.

 

En numérotant tes photos de 1 à 8 :

- je ne vois plus les trous sur la photo 2

- sur la photo 3 il y a un effet de moiré, ce qui arrive quand on échantillonne à une fréquence proche de celle de l'objet

- photo 7 : est-ce aussi du moiré ?

 

Cordialement

Lien vers le commentaire
Partager sur d’autres sites

             En fait je me suis rendu compte après coup que j' avais recadré les photos en imposant un nombre de pixels pour hauteur et largeur alors que, pour mieux comparer,  j' aurais dû imposer une hauteur et largeur fixe en unité de longueur(P.E. (500 µm sur 400 µm).

   Jérôme voici la photo 2 traitée (contraste, luminosité, etc...) on voit bien les trous:

 

post-27-0-85246600-1452182913_thumb.jpg

 

Photo 3 c' est du moiré photo 7 j' hésite la voici ci dessous:

 

post-27-0-99469500-1452183293.jpg

 

Je pensais que le moiré arrivait si on suréchantillonnait de trop  ?

 

Dans cette démarche j' ai choisi le fait que le capteur ignore certains pixels pour obtenir les échantillonnages inférieurs il faudrait aussi faire la manip avec le binning car chaque "superpixel" créé recevrait plus de lumière ce qui diminuerait le bruit.

Cordialement,

JL

Lien vers le commentaire
Partager sur d’autres sites

Effectivement, sur ta photo agrandie on voit bien les détails.

 

Le moiré est dû à un échantillonnage très proche de la fréquence que l'on observe. Dans ce cas, selon la synchronisation entre le signal et l'échantillonnage, il y a de grandes variations dans le signal.

 

Un exemple classique est donné par les voilages devant les fenêtres. Quand le tissu est en double dans les plis, selon que les fils sont en face des fils ou en face des trous, on voit des zones plus claires et plus sombres. Comme l'écartement entre les fils n'est pas parfaitement constant, cela fait des dessins. C'est le moirage.

 

Reprenons le cas de l'échantillonnage d'un signal blanc/noir par un CCD. Premier cas à deux photosites par cycle (un cycle c'est un blanc + un noir) :

 

post-2042-0-19359700-1452240338_thumb.png

 

En noir, l'éclairement vu de profil, en bleu les photosites et en rouge le signal de sortie. Ici pas de chance,les photosites captent tous du blanc et du noir en quantité égale : le signal résultant est uniformément gris. En décalant latéralement :

 

post-2042-0-24581200-1452240441_thumb.png

 

Le signal est "parfaitement" restitué. Entre les deux, on percevra plus ou moins de modulation. Si la fréquence d'échantillonnage est légèrement différente de la fréquence qu'on observe, il y aura des endroits où on sera "en phase" où on verra la modulation et des endroits où l'on sera "en quadrature" (décalage d'un quart de cycle) où l'on ne la verra plus, d'où effet de moiré.

 

En sous-échantillonnant comme tu le fait, on se trouve dans le cas suivant où un détecteur sur deux n'est pas utilisé :

 

post-2042-0-82220900-1452240715_thumb.png

 

ou, selon le décalage :

 

post-2042-0-57406900-1452240750_thumb.png

 

Si la fréquence d'échantillonnage n'est pas exactement un sous-multiple de ce qu'on observe, il y aura à nouveau des décalages et des zones plus ou moins claires, d'où à nouveau effet de moirage.

 

A l'inverse, si l'on échantillonne mieux, comme dans l'exemple suivant, à 4 échantillons par cycle :

 

post-2042-0-79851900-1452240907_thumb.png

 

il y a une dégradation du signal, mais il n'y aura pas d'effet de moiré, s'il y a un décalage latéral.

 

En résumé, le moiré apparait en cas d'échantillonnage voisin de deux échantillons par cycle ou un sous-multiple. Un échantillonnage correct du signal nécessite 8 à 10 échantillons par cycle (j'insiste :blink: ), pour ne pas le dégrader et il n'y aura pas de moiré !

 

Cordialement

Modifié par jmaffert
Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Bonjour,

 

Je crois qu'il ne faut pas tout mélanger.

Dans une image aussi complexe que celle dune diatomée, plusieurs phénomènes se superposent et parfois portent le même nom.

 

Le Binning : rien à voir avec l' Interpolation de pixels pour créer une image en couleur.

 

Binning 2X2.jpg

Il y augmentation du contraste et du rapport S/B et  perte  de résolution

 

L'interpolation :

 

interpolation.JPG

Elle permet de recréer la couleur à partir d'un capteur monochrome muni d'une matrice colorée 

 

Le crénelage:  en anglais Aliasing.

A l'échelle du pixel, une ligne oblique est représentée par un escalier. Normal , on ne peut pas faire autrement.

 

Anti-Aliasing: (ou anti-crénelage.)

Procédé artificiel (trucage) pour diminuer l'effet, sur notre sens esthétique, du crénelage.

 

A- Hardware : Pour un capteur donné  on diminue la résolution de l'image (puisqu'on ne peut pas augmenter la résolution du capteur !)

En utilisant un filtre anti-aliasing qui diminue la résolution de l'image.

 

B- Software : Soit toujours artificiellement, on incorpore des pixels "gris" (de valeur intermédiaire par interpolation quand on est en couleur) dans les "créneaux vides"

 

Aliasing_a.png

 

Le moirage : C'est un phénomène interférentiel qui apparaît quand deux réseaux sont superposés.

L'exemple du rideau est un phénomène que je m'expliquais déjà dans mon enfance (pour ne pas dire mon berceau)

 

Moire02.gif

 

Quand on observe certaines diatomées, il y a jusqu'à 3 systèmes de réseaux qui se superposent plus le crénelage du capteur . On observe nécessairement des artefacts.

 

 

L' Aliasing se traduit en terme d'échantillonnage du signal par repliement du spectre :

 

Définition de repliement de spectre selon Wikipedia :

 

Le repli de spectre (Aliasing en anglais) est un phénomène qui introduit dans un signal qui module une fréquence porteuse ou dans un signal échantillonné des fréquences qui ne devraient pas s'y trouver, lorsque la fréquence porteuse ou la fréquence d'échantillonnage sont inférieures à deux fois la fréquence maximale contenue dans le signal.

(Ce n'est pas moi qui insiste)

 

 

Amicalement.

Lien vers le commentaire
Partager sur d’autres sites

Je vois que notre cher Tryphon continue à joyeusement mélanger les concepts :

- d'analyse de spectre

- de visualisation d'un signal ou d'une image

 

Oui, quand on veut numériser un signal pour en mesurer le spectre, une échantillonnage légèrement supérieur à deux fois la fréquence maximum est suffisant pour retenir l'information fréquentielle.
Non, quand on veut visualiser un signal, cet échantillonnage est notoirement insuffisant. Tu t'es probablement servi d'un oscilloscope numérique. T'es-tu demandé à quelle fréquence était échantillonnée la jolie sinusoïde que tu regardes ? certainement à deux échantillons par cycle !!

 

Amicalement

Lien vers le commentaire
Partager sur d’autres sites

  • Admin

Je constate que notre cher Jérôme, revient à des considérations moins théoriques.

 

Dans nos microscopes nous regardons et photographions des images limitées en résolution par les lois de la physique.

Rien ne sert à vouloir dépasser ses lois.

Bien entendu, tout bon scientifique essayera de les prendre en défaut et à les contourner.

Mais les faits sont têtus !

 

Bien entendu, si on veut minimiser les effets du crénelage, on peut essayer de diminuer la taille du photo-site, même le plus sot peut le comprendre, mais, il arrive un moment où on se heurte à des LIMITES.

 


Tu t'es probablement servi d'un oscilloscope numérique.

 

Oui, même analogique : mais là aussi, il y a des limites physiques 

Analogie trompeuse donc.

Ce n'est pas parce que dans une certaine gamme de mesures on peut toujours trouver une fréquence qui nous donne une courbe parfaite, pas "pixélisée" du tout, que l'on peut continuer ce petit jeu à l'infini!

 

Je rappelle que nous parlions d'images à la limite de la résolution théorique et non dans le domaine, où l'on a "de la réserve" pour agrandir le cliché.

Cela m'évoque, certaines séries policières, où l'on agrandit des images quasiment à l'infini pour voir LE détail capital !

Cela me rappelle aussi la célèbre affaire  dite: " Le mystère dans les yeux de Notre Dame de Guadalupe"

eye72.jpg

eye_fam.jpg

http://www.sancta.org/eyes_f.html

 

Je ne veux heurter aucune conviction, mais, il ne faut pas trop pousser...

 

Amicalement.

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

×
×
  • Créer...