Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 Bonjour, Après les nombreuses interventions sur la résolution, les pixels, la taille des capteurs etc… j’ ai voulu faire un test en conditions réelles pour sortir de la théorie et passer à la pratique.J’ ai posé le problème de la façon suivante:avec un capteur donné quel est le meilleur paramètrage à faire pour pouvoir exploiter pleinement la résolution de l’ objectif du microscope? Rappel théorique:je suis parti de la formule tirée du site internet suivant: http://www.optique-ingenieur.org/fr/cours/OPI_fr_M03_C03/co/Contenu_14.html Que trouve-t-on dans cette inégalité: Le terme de gauche donne la résolution d’un objectif exprimée en terme de fréquence spatiale en mm-1 (plus ce chiffre est faible meilleure est la résolution) et le terme de droite la fréquence spatiale d’ échantillonnage du capteur exprimée en mm-1 (plus le chiffre est élevé plus la taille des photosites est petite)divisée par deux pour respecter le critère de Nyquist Remarque: pour les calculs j’ ai pris une longueur d’ onde moyenne à 0,55 µm, au lieu de prendre 2 fois l’ O.N. de l’ objectif j’ ai pris la somme de l’ O.N. de l’ objectif et de 70% de l’ O.N. de l’ objectif pour l’ O.N. du condenseur.La caméra que j’ utilise est couplée à un projectif de 0,46 et la taille des photosites est de 2,2 µm. J’ ai pris comme critère de Nyquist la valeur 2. A l’ aide de ces valeurs j’ ai construit le tableau suivant: TestReso1.pdf 2) En pratique: Ensuite à l’ aide du logiciel de pilotage de la caméra j’ ai pris pour chaque objectif des photos au format TIFF (sans compression) d’ une diatomée qui présente des structures assez grossières en taille mais aussi des structures plus fines (dans les trous); toutes les photos sont prises avec le même réglage de contraste et saturation, j’ ai réglé l’ éclairage de Kolher et la mise au point avec soin.Enfin j’ ai pris, pour chaque objectif une série de photos en faisant varier la résolution du capteur avec la fonction « skip » du logiciel (que l’ on peut traduire par sauter en français). Ainsi un photosite sur 1,2,3 ou 4 est utilisé au niveau du capteur; j’ ai recalculé à chaque fois la fréquence spatiale utile selon Nyquist. Le tout résumé dans le tableau suivant: TestReso2.pdf OUI signifie que le capteur peut enregistrer les plus petits détails fournis par l’ objectif et NON signifie qu’ il ne le peut pas (suivant la théorie). 3) Les résultats en photo: La photo suivante à été faite avec l' objectif x 40 l' ovale montre la zone de mise au point: Les photos tests vont suivre car pour pouvoir juger je ne peux pas trop les compressées.......... P.S. j' ai du mettre les tableaux en pdf car je n' ai pas pu les insérer depuis numbers Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 Bonjour Jean-Luc, Et Merci pour tes tests. Pour ce qui est des pdf, ce n'est pas une bonne solution, pas pratique du tout, (je parie que moins d'un lecteur sur 2 les charge) il vaut mieux mettre un jpeg qui lui sera vu en même temps que le texte. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 Encore merci pour ces test, je salive d'impatience... Pour les problèmes de taille image, la solution est de faire un "crop" de la zone utile à l'échelle UN du capteur. A la limite, le reste on s'en balance... Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 Re, <> C'est tout à fait normal, mais la pratique doit guider la théorie et la théorie faire avancer la pratique et ainsi de suite, ainsi va la science... Je voudrais donc mettre en garde sur certains points. Principes de précaution : 1° L’œil au microscope, méfiez-vous de l’œil et du cerveau . Ils sont tous les deux subjectifs.2° Méfiez-vous de votre ordinateur et par la même occasion de votre appareil photo qui utilise des algorithmes non objectifs, en fait pour vous faire plaisir. J'ai tracé à la main, en noir et blanc au départ un simple carré de 3 pixels X 3 avec un pixel blanc central. Chaque carré de la grille correspond à un pixel quelle que soit sa taille à l'écran. Echelle UN (EUN) Puis j'ai ensuite redimensionné ma première image avec un facteur de 4 X 4 XPlutôt que de mettre des pixels blancs (vides ), entre chaque pixel originels bien réels eux ! L’algorithme utilisé (donc la personne qui l'a conçu !) bricole, pour que de loin , ( nous sommes à l'échelle du pixel !!) nous ayons l'impression que l'image a été agrandie 4 X . Tromperie? Escroquerie ? Séduction ! Ensuite pour revenir à l'image initiale j'ai redimensionné deux fois de suite mon image à 50% à chaque fois. 2X EUN Commentaire ajouté: (Sur les manipulations d'images ) Quand on veut artificiellement, c'est à dire avec un logiciel qui ne manipule que des Zéros et des Uns, il faut faire des choix arbitraires : Ces choix constituent ce qu'on appelle un algorithme .(0) Quand on veut agrandir une image numérique : Une image numérique étant une matrice (ou une grille si vous préférez ) de points appelés pixels (1) vous comprenez bien que ces point , il faut bien les inventer ! C'est de l'agrandissement à vide, c'est à dire sans information supplémentaire.Les algorithmes pour y arriver sont LIBRES , aucune loi (naturelle pas plus qu'humaine) n'impose la manière de remplir les espaces vides qui n'existaient pas. On peut donc mettre du blanc, dans ce cas, le contraste général de l'image diminue et çà ne fait pas joli ou sérieux (et pourtant, c'est plus objectif) (2). Soit on va faire la moyenne des pixels adjacents, le contraste paraîtra donc le même et la tromperie passera inaperçue. Quand on veut réduire la taille d'une image numérique Ici le problème est inverse, il faut faire des sacrifices et faire perdre des informations (3) et cette information est irrémédiablement perdue si on n'a pas pris le soin de travailler sur une copie de l'image en ayant conservé intact l'original ! Ce que j'ai voulu montrer dans ces exemples, c'est le travail des algorithmes de redimensionnement d'image , travail qui est totalement arbitraire. Voilà donc, méfiez-vous des apparences et tenez-en compte dans vos jugements et raisonnements ! Amicalement. (0) Un algorithme est ni plus ni moins qu'une recette de cuisine ! C'est la liste des instructions que l'on donne dans un programme à un ordinateur pour lui faire produire un résultat. Mais ce résultat est celui que son auteur a voulu ou cru vouloir faire faire à l'ordinateur.Il faut donc en finir avec le mythe de l’algorithme qui menacerait l' humanité ou la liberté du citoyen . (1) Un pixel est un élément d'information élémentaire et l'informatique le traitement de l'information sous forme binaire des 0 et des 1. (2) Le problème se pose en Peinture quand on veut restaurer des peintures anciennes dont il manque des morceaux.- Une méthode consistait à inventer les parties manquantes et à peindre à la place des vides laissés par les ravages du temps. On estime actuellement que ce n'est pas honnête.- Remplacer les zones manquantes par une plage uniforme d'un ton neutre, cela ne fait pas très joli, mais c'est parfaitement honnête. (3) Dans une image, il y a plusieurs niveaux d'information, et il faut être capable à tout moment de les distinguer ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 (modifié) Bonjour Jean-Luc, et les autres...Enfin j’ ai pris, pour chaque objectif une série de photos en faisant varier la résolution du capteur avec la fonction « skip » du logicielComme le fait remarquer Tryphon, tout le problème est là... on ne sait pas ce que fait la caméra pour "changer" de résolution ! ... la taille du photosite ne change pas !Ne vaudrait-il pas mieux utiliser des Apn et caméra différents avec des capteurs de résolutions différentes ( à la construction), par exemple un petit capteur 1/2.3" 5Mpx (caméra dédié) et un grand capteur APS-c 18Mpx (APN)... ce qui donne grossièremment des photosites de 2µ et 4µ ... sachant que les pixels seront traités par des algorythmes différents, mais nous seront sûrs de la taille des photosites par rapport à la résolution du microscope...Votre avis ?AmicalementP.S. c'est un peu compliqué comme manip, mais une fois le microscope règlé il faut changer l'appareil de prise de vue "doucement" ... pour ne rien bouger. Je veux bien essayer, mon problème c'est la préparation adéquat... Modifié le 18 décembre 2015 par savant Cosinus Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Auteur Signaler Partager Posté(e) le 18 décembre 2015 Test objectif x10 planachromat: Cette première image est la transposition en jpeg de l' image TIFF issue du capteur (2584x 1936 pixels) Pour moi c' est l' image "de référence" avec la pleine résolution du capteur Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 Le binning consiste à cumuler le signal de plusieurs photo-sites d'un capteur pour en augmenter la sensibilité.Cela se fait bien sûr au détriment de la résolution. Cela n'a pas beaucoup de sens pour nous. Un binning 2X2 réunira 4 sites adjacent pour n'en faire qu'un seul. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 Attention au Jpeg ! L'image N°1 sauvée en JPG puis rechargée Et encore c'est un test simple. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 BonjourIl s'agit d'une partie de micromètre dont le dessin présente undéfauut bien particulier, objectif 40x,Voici deux clichés,- le premier: caméra 5 mpx, capteur 1/2.3" - le deuxiéme : APN 18 mpx, capteur APS-c... tous les deux, crop à l'échelle un.Vous avez le droit de critiquer... :) caméra 5 Mpx APN 18 Mpx Lien vers le commentaire Partager sur d’autres sites More sharing options...
Claude Brezisky Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 Bonsoir Cosinus,Ta caméra est elle dédiée microscopie, si oui, tu as un réducteur de 0,5 environ entre le capteur et l'image, qu'en est il de ton APN?D'autre part, la comparaison ne peut être faite que tu sur des détails très fins comme la ponctuation des diatomées et en noir et blanc pour éviter les artefacts et avec des conditions d'observation identiques (filtres, ouverture des diaphragmes, lumière: qualité et intensité).CordialementClaude Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 Bonsoir, l'image de Jean-Luc a un champ trop grand pour qu'on puisse apprécier la résolution ultime de l'objectif. Il faut regarder un trou de la diatomée, par exemple, en coupant un échantillon sans aucun groupement électronique de pixels. Ton image a 5 Mpixels que tu ne peux pas présenter en entier sur nos moniteurs de toutes façons. La présentation de Cosinus correspond plus à ce qu'il faut faire, mais il n'y a pas de fréquences spatiales élevées dans cette photo. Il est donc difficile d'apprécier la qualité des caméras. La manip de Tryphon sur son carré est une excellente démonstration de l'empilement des FTM. La première transformation a rendu flous les bords (disparition des fréquences spatiales élevées) et baissé le contraste. La deuxième transformation a fait disparaitre définitivement le contraste... Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 18 décembre 2015 Admin Signaler Partager Posté(e) le 18 décembre 2015 5 Mpix 18 Mpix On a l'impression que la seconde est plus nettes, mais on a l'impression que la première montre des détails plus fins.Mais il faudrait que la MAP soit rigoureusement identique, ce qui me parait impossible... Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 Bonjour Claude,Tu as raison, coté microscope les conditions et les réglages sont identiques... malheureusement coté prise de vue tout est biaisé, la caméra est effectivement montée sur un réducteur de champ 0.5x dont les lentilles n'arrangent rien et l'APN capte directement l'image primaire au foyer. D'autre part je pense que les algorythmes des fabricants d'appareils photos sont "faits pour faire de jolies photos" alors que la caméra dédiée (caméra industrielle) "se moque de l'esthétique"...ce qui fausse un peu plus la comparaison.Jérôme,Il me manque une mire correcte et des caméras de résolutions différents... mais tu doit avoir ça... B)Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Auteur Signaler Partager Posté(e) le 18 décembre 2015 Images objectif x10 ayant une résolution spatiale calculée à 170: 1) avec le capteur en pleine résolution: fréquence spatiale de 227 (454/2); Les détails visible à l' oculaire sont bien reproduits 2) avec un photosite sur deux: fréquence spatiale de 114 (227/2). Des détails disparaissent. 3) avec un photosite sur quatre: fréquence spatiale de 57 (114/2); Perte de détails. 4) avec un photosite sur 8: fréquence spatiale de 28. Très insuffisant La théorie est confirmée... ouf ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Claude Brezisky Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 Comment fais tu Jean-Luc, du photoshop, si oui les dés sont pipés.Il faut prendre par exemple une caméra de réellement 1,3 Mp et une de réellement 5 ou mieux de18 Mp et tu seras fixé sur ta théorie. CordialementClaude Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Auteur Signaler Partager Posté(e) le 18 décembre 2015 Images objectif x20 ayant une résolution spatiale calculée à 134: (même démarche que pour le 10) 1) Capteur à 227:OK 2) Capteur à 114: Insuffisant 3) Capteur à 57: insuffisant 4) Capteur à 28: insuffisant Lien vers le commentaire Partager sur d’autres sites More sharing options...
Claude Brezisky Posté(e) le 18 décembre 2015 Signaler Partager Posté(e) le 18 décembre 2015 La mise au point n'est pas au même niveau, comment peux tu comparer, si tu ne met pas au point exactement sur le même détail, c'est juste une remarque qui se veut constructive. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Auteur Signaler Partager Posté(e) le 18 décembre 2015 Image objectif x40: résolution spatiale à 111: 1) Capteur à 227: OK 2) Capteur à 118: OK (limite) 3) Capteur à 57: insuffisant 4) capteur à 28: insuffisant P.S. je n' ai pas recardé au carré les 2 derniers images mais ont voit bien la différence Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 18 décembre 2015 Auteur Signaler Partager Posté(e) le 18 décembre 2015 Bonsoir à tous, Merci Typhon d' avoir fait apparaître les tableaux.Merci pour vos remarques; J' espère avoir été clair dans mes explicationsJe n'ai pas utilisé photoshopJ' avais songé utiliser des capteurs différents avec des projectifs différents mais j' avais peur d' introduire un biais;Dans cette procédure et pour un même objectif les caractéristiques du système sont les mêmes. Seul les capacités du capteur changentIl se peut que la mise au point est légèrement variée d' un objectif à l' autre mais pas avec le même objectif (j' ai utilisé un ruban adhésif pour bloquer la vis micrométrique).Je n' ai pas utilisé le binning mais un fonction du logiciel qui permet d' ignorer un photosite sur 2 ou bien 3 sur 4 etc..... Cette solution m' a parue la plus simple à mettre en oeuvre; Il n'y a pas création de pixels intermédiaires puisque la taille des images (en pixel) diminue.Je n' ai pas pu avec cette préparation utiliser les objectifs 60 et 100 car leurs distances de travail était trop faibles (je ferais des tests avec une autre préparation.Toutes les images ont été obtenues avec le même réglage de contraste.Ma conclusion (provisoire) est que pour les objectifs ordinaires faibles ( jusque' à 40) il faut disposer d' un capteur au format 4/3 d' au moins 5 millions de pixels.....Cordialement,JL Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 20 décembre 2015 Admin Signaler Partager Posté(e) le 20 décembre 2015 Bonjour, J'ai ajouté un commentaire dans ma réponse précédente :http://forum.MikrOscOpia.com/topic/15443-test-capteur-resolution/?p=58231 Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 21 décembre 2015 Signaler Partager Posté(e) le 21 décembre 2015 (modifié) Conditions et résultats des essais Microscope Orthoplan Objectif Nikon Fluor 40x, ON 0,85 160 /0,11-0,23 mm, pas utilisé à pleine ouverture (2/3 environ) Condenseur achromatique ON 0,9 Utilisation ou non d’un projectif 0,5x sans marque. Le réglage du condenseur n’est jamais retouché. L’intensité peut varier ainsi que la mise au point car je ne suis pas parfocal entre caméras. Caméra Motic 3 MpixelsCapteur de 6,55 x 4,92 mm. Pixel de 3,2 x 3,2 µm Caméra Tucsen Digiretina 16 de 16 MpixelsCapteur de 6,12 x 4,6 mm. Pixel de 1,335 x 1,335 µm (donnée constructeur, je ne suis pas sur que le nanomètre soit significatif !) Les deux caméras peuvent être utilisées à pleine résolution ou avec 4 fois moins de pixels, mais dans ce dernier cas je n’ai aucune idée de ce que fait l’électronique du capteur pour diviser par 4 (coefficient deux sur chaque axe) le nombre de pixels : ne pas prendre en compte un pixel sur deux et ignorer une ligne sur deux ou moyenner 4 pixels voisins. J’ai tendance à penser que c’est l’ignorance des pixels qui est utilisée, car ça gagne du temps par rapport à la collecte de tous les pixels et leur moyennage, mais il y a des processeurs rapides dans la caméra et aucune information dans la squelettique documentation... Les images ont été enregistrées en .png pour ne pas faire de compression/décompression. Je n’ai fait aucun traitement d’image, sauf sélectionner un morceau d’image à peu près au même endroit et à peu près de la même taille sur toutes les prises de vue. J’ai ensuite zoomé à l’écran ces échantillons à la même dimension où on peut voir les pixels élémentaires de la prise de vue, plus ou moins gros évidemment. Je n’ai pas cherché à faire de belles images, on pourrait les améliorer avec des logiciels appropriés…Diatomée utilisée : Stauroneis phoenicenteron Un calcul très approximatif de l’objectif (supposé limité par la diffraction) donne une résolution limite de 1,22 x 0,55 : (0,7 x 2) = 0,48 µm (soit 19 µm dans le plan image). Le critère de Nyquist souvent invoqué (à tort) correspondrait à des pixels de 10 µm. Les trous de la frustule sont espacés d’environ 0,65 µm. On est donc proche de la limite. Au grossissement de 40, dans le plan image, qui est le plan du CCD, l’espacement entre trous est de 0,65 x 40 = 26 µm. Caméra 3 Mpixels : On réussit à peu près à compter 8 pixels entre centre de trous, ce qui fait 24,8 µm, cohérent avec les 26 évoqués plus haut. Les trous sont bien visibles, quoique échantillonnés (« pixellisés »). La même caméra sous-échantillonnée par le capteur avec 0,75 Mpixels (correspondant à des pixels de 6,4 µm): La même caméra avec le projectif 0,5 x, ce qui revient à des pixels de 6,4 µm : Ce devrait être la même chose que la précédente ; ça y ressemble un peu avec des différences dues à la méthode de sous-échantillonnage d’une part et aux aberrations introduites par le projectif d’autre part. Dans ces deux cas, les images ne sont pas belles, mais on perçoit que la fréquence spatiale correspondant aux trous existe La même caméra avec à la fois le projectif 0,5x et le sous-échantillonnage au niveau de la caméra, ce qui revient à un pixel équivalent à 12,8 µm : A l’œil on ne perçoit plus grand’chose des détails de l’objet ; on devine une fréquence spatiale avec des crêtes orientées haut-gauche vers bas-droite, qui correspondent à une fréquence spatiale présente dans la diatomée, de plus basse fréquence que l’espace entre trous. Caméra 16 Mpixels Pleine résolution : La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels. C’est le bruit qui commence à devenir perceptible (réglage de la caméra probablement pas optimisé ; je débute avec celle là et le logiciel pour Mac est faiblard). La visualisation de la forme des trous est excellente. La même caméra utilisée à résolution moitié, soit 4 Mpixels, d’où pixel théorique de 2,7 µm à comparer aux pixels de 3 µm de la première caméra : Curieusement le contraste est fort, mais la définition misérable. Je n’ai pas pu utiliser la caméra 16 Mpixels avec le projectif 0,5 car il n’y a pas de fonction zoom sur l’écran de l’ordinateur quand on est dans le logiciel de commande de la caméra qui visualise la totalité du champ de la caméra sur l’écran. On ne voit donc pas les détails fins et la mise au point est impossible ! Conclusion Une première conclusion simple : ne pas utiliser les caméras à des définitions (électroniques) inférieure à la définition nominale. C’est en tous cas vrai pour ces deux caméras. La conclusion, objet de tant de débats : un échantillonnage proche de Shannon-Nyquist est très insuffisant pour obtenir une image de bonne qualité. Il est suffisant pour capter la fréquence spatiale correspondante, que l’on retrouvera dans le plan des fréquences spatiales si on fait la transformée de Fourier de l’image, et c’est tout ce que Shannon-Nyquist ont voulu dire, mais pas du tout adapté à de l’imagerie de bonne qualité. Un échantillonnage à 3,2 microns, c’est à dire Nyquist /3 est correct, mais montre encore une dégradation. L’échantillonnage à 1,3 microns, soit Nyquist/7,5 paraît bien suffisant. On peut probablement tolérer moins, mais je n’ai que ces deux caméras ! Cette conclusion est bien connue depuis longtemps par les personnes qui s’occupent d’imagerie. Elle est ignorée ou occultée par des gens qui ont mal digéré des rudiments de traitement du signal et/ou qui ont des intérêts commerciaux contraires. Amicalement Modifié le 21 décembre 2015 par Tryphon T Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 21 décembre 2015 Admin Signaler Partager Posté(e) le 21 décembre 2015 Bonjour, J'ai récupéré le message précédent de Jérôme qui était bugué. Quand vous éditez un message un peu long, il est impératif de le faire avec l' Éditeur complet. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 21 décembre 2015 Admin Signaler Partager Posté(e) le 21 décembre 2015 Bonjour Jérôme,je n’ai aucune idée de ce que fait l’électronique du capteur pour diviser par 4 (coefficient deux sur chaque axe) le nombre de pixelsLe mode binning d'une camera ne divise rien du tout. Il ne fait aucune division, il ne supprime pas des informations arbitrairement, contrairement aux algorithmes de redimensionnement dont j'ai donné des exemples.Au contraire, il regroupe 2, 3 , 4 photo-sites adjacents en X et en Y , à la prise de vue pour augmenter la SENSIBILITÉ du capteur .Bien entendu cela se tait au détriment de la RÉSOLUTION .C'est un procédé utilisé en astronomie mais qui n'a aucun intérêt en microscopie.Cela n'a donc rien à voir avec un post traitement informatique de l'image , car à ce moment là l'image est figée et toute manipulation en plus ou en moins du nombre de pixel fait perdre de l'information. Curieusement le contraste est fort, mais la définition misérable. Rien de curieux là dedans, l'explication est donnée ci-dessus. Cette conclusion est bien connue depuis longtemps par les personnes qui s’occupent d’imagerie. Elle est ignorée ou occultée par des gens qui ont mal digéré des rudiments de traitement du signal et/ou qui ont des intérêts commerciaux contraires. Il y a des tas de personnes qui s'occupent d'imagerie (pas moi, je suis trop nul dans ce domaine) et de très bon niveau, qui ne pensent pas comme toi et qui l'écrivent.Bon,ce n'est pas le nombre d'opinons dans un sens ou un autre qui fait la vérité, je préfère me faire une idée moi-même. (Pour bien digérer, il faut commencer par bien manger !) La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels.Oui, mais, il ne faut pas en tirer des conclusions erronées.Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée" . Le problème est de savoir si ces pixels plus petits correspondent à une réalité. Pour celui qui regarde l'image, les pixels existent bien , même si on multiplie leur nombre par 10, 100, 1000 !Et si on regarde toujours l'image finale à la même échelle, l'image sera pratiquement toujours la même.Mais il n'y aucun détail supplémentaire !Deux ponts non résolus , ne le deviendront pas pour autant en diminuant va taille des photo-sites. Amicalement. Pardon pour les ajouts, mais je n'avais pas fini mon post. Je valide à chaque étape, cela me permet de ne pas perdre mes données, malgré la mémoire tampon de l' éditeur. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 21 décembre 2015 Signaler Partager Posté(e) le 21 décembre 2015 (modifié) D'accord, je ne sais juste pas ce que fait l'électronique de la caméra quand on demande une image avec moins de pixels. Rien de très bon à voir les résultats... Et merci pour la remise en forme du message. Amicalement Modifié le 21 décembre 2015 par jmaffert Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 21 décembre 2015 Signaler Partager Posté(e) le 21 décembre 2015 C'est dur à suivre car Tryphon fait des rajouts dans ses messages... "CitationCurieusement le contraste est fort, mais la définition misérable. Rien de curieux là dedans, l'explication est donnée ci-dessus." Pas du tout : la caméra à 16 Mpixels, sous-utilisée à 4 Mpixels devrait donner une image voisine de la caméra 3 Mpixels or l'image est bien plus mauvaise. "Bon,ce n'est pas le nombre d'opinions dans un sens ou un autre qui fait la vérité, je préfère me faire une idée moi-même." Je pense que les images que j'ai envoyées sont assez parlantes. "Oui, mais, il ne faut pas en tirer des conclusions erronées.Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée" . Le problème est de savoir si ces pixels plus petits correspondent à une réalité. Pour celui qui regarde l'image, les pixels existent bien , même si on multiplie leur nombre par 10, 100, 1000 !Et si on regarde toujours l'image finale à la même échelle, l'image sera pratiquement toujours la même." Pas du tout ! tu trouves que les images que j'ai mises, qui sont à la même échelle, sont les mêmes !!! "Mais il n'y aucun détail supplémentaire !" C'est une idée fixe ! je n'ai jamais dit qu'on verrait plus de détails. L'objectif donne une image des trous de la frustule. Le CCD se doit de représenter ces trous le mieux possible en ne dégradant pas l'image donnée par l'objectif. "Deux points non résolus , ne le deviendront pas pour autant en diminuant la taille des photo-sites." Bien sûr ! ai-je jamais dit ça ? Encore une fois la microscopie consiste à faire une image exacte d'un végétal, d'un animal, d'un minéral,...pas de séparer deux points. C'est un travail d'astronome. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 21 décembre 2015 Auteur Signaler Partager Posté(e) le 21 décembre 2015 Bonsoir Jérôme, Pourquoi l' image de la caméra 16 Mpx est-elle en noir et blanc ?En tous cas le test est intéressant; il faudrait que d' autres membres du forum fassent de même.Cordialement,JL Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 21 décembre 2015 Signaler Partager Posté(e) le 21 décembre 2015 (modifié) Pardonnez moi, mais comme dans toutes ces discussions qui s'éternisent, vous avez tous les deux raison (... je sais ce n'est pas le but... :rolleyes: ) - oui Tryphon: - la multiplication des pixels ne crée pas plus de détails... ce que Jérôme n'a jamais dit ! - effectivement la confusion est souvent faite... à tort, et pleins de pixels ne font pas forcement une belle image ! - oui Jérôme: - le fait d'avoir plus de pixels permet de produire une meilleurs image (tu le prouves)... ce que Tryphon n'a jamais contesté ! - pour faire une belle image il faut plein de pixels... et plein de talent ! Vous ne parlez pas de la même chose... Jérôme veut une image la plus fidèle possible, alors que Tryphon veut une résolution maximale. Amicalement Cosinus... qui est très content d'avoir appris plein de trucs... B) ! Modifié le 21 décembre 2015 par savant Cosinus Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 Bonjour Jean-Luc, Ce serait effectivement une très bonne idée que d'autres membres fassent le même genre d'essais avec des matériels divers car cela permet de mieux cerner la qualité d'enregistrement des CCD que nous utilisons. Les photos que j'ai prises cherchent uniquement à qualifier la qualité de restitution d'une même image par des CCD, pas à mesurer la qualité de la chaîne complète : éclairage, condenseur, objectif. Je ne suis pas sûr que la diatomée ait une couleur. Les différences de nuances sont dues à la balance des blancs que j'ai réglé en automatique pour les deux caméras et qui n'a pas donné le même résultat. Bonjour Cosinus, La résolution maximale est d'abord une question de qualité du microscope, en particulier l'objectif, dont la contribution à la FTM est primordiale, d'éclairage, de coloration de la préparation ou d'autres moyens d'augmentation du contraste. Quand tout ça est optimisé on a la "meilleure image possible, c'est à dire avec la meilleure résolution et le meilleur contraste" au foyer de l'objectif (ou de la lentille de tube si on travaille avec des objectifs "infini") : "image intermédiaire". C'est ta question qui est à l'origine de cette discussion : comment visualiser au mieux cette image sur un écran. L'écran a un peu disparu de la discussion qui s'est concentrée sur la plus ou moins bonne qualité des CCD pour enregistrer cette image intermédiaire sans la dégrader. J'espère avoir montré que le critère de Shannon-Nyquist développé à l'origine pour des problèmes d'échantillonnage de signaux temporels ne s'applique pas tel quel en imagerie. Ce théorème dit que l'information spectrale est présente. Il ne dit pas qu'il n'y a pas de dégradation du signal. D'ailleurs les enregistrements audio professionnels sont faits à 192 kHz et pas à 30 kHz qui suffiraient si on appliquait strictement ce critère aux sons audibles. Donc 6 fois mieux que Nyquist. Est-ce-qu'on n'a pas vu quelque chose d'approchant dans la discussion ci-dessus ? Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Claude Brezisky Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 Bonjour,La résolution maximale est d'abord une question de qualité du microscope, en particulier l'objectif, dont la contribution à la FTM est primordiale, d'éclairage, de coloration de la préparation ou d'autres moyens d'augmentation du contraste. Quand tout ça est optimisé on a la "meilleure image possible, c'est à dire avec la meilleure résolution et le meilleur contraste" au foyer de l'objectif Les photos que j'ai prises cherchent uniquement à qualifier la qualité de restitution d'une même image par des CCD, pas à mesurer la qualité de la chaîne complète : éclairage, condenseur, objectif.Pourquoi n'as tu pas appliqué ces principes à tes photos?Au départ, le réglage du microscope est capital pour obtenir la meilleure photo possible.Si ton microscope n'est pas bon ou qu'il est mal réglé, tu n'auras pas de belles photos quelle que soit la caméra et le traitement d'image utilisé.Cordialement.Claude Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 Bonjour Claude, ce n'était pas mon but. Je ne cherchais pas à obtenir la meilleure photo possible de cette diatomée mais à montrer l'influence de divers échantillonnages du CCD sur la qualité de l'image finale. Il me fallait une image de base, avec des détails de dimensions proches de la résolution de cet objectif et ne pas la changer quand je changeais la caméra, le projectif et l'échantillonnage. Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 :) ... j'espère que Jérôme avait pris soins de régler son microscope... de toute façon son but était de comparer les CCD avec une même image (bonne ou mauvaise... à la limite). Comparer le travail que chacun peut faire dans son coin va être très difficile et peu rigoureux, dans la mesure, ou justement, il y a beaucoup de paramètres qui entrent en jeu... Ce qui n'empêche pas chacun de donner un exemple de ce qu'il peut faire avec sa propre méthode et donner son avis... cela nous donnera "une idée de la qualité", critère subjectif mais finalement c'est celui que nous percevons sur le forum...Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 22 décembre 2015 Admin Signaler Partager Posté(e) le 22 décembre 2015 Pardonnez moi, mais comme dans toutes ces discussions qui s'éternisent, vous avez tous les deux raison (... je sais ce n'est pas le but... :rolleyes: ) - oui Tryphon: - la multiplication des pixels ne crée pas plus de détails... ce que Jérôme n'a jamais dit ! - effectivement la confusion est souvent faite... à tort, et pleins de pixels ne font pas forcement une belle image ! - oui Jérôme: - le fait d'avoir plus de pixels permet de produire une meilleurs image (tu le prouves)... ce que Tryphon n'a jamais contesté ! - pour faire une belle image il faut plein de pixels... et plein de talent ! Vous ne parlez pas de la même chose... Jérôme veut une image la plus fidèle possible, alors que Tryphon veut une résolution maximale. Amicalement Cosinus... qui est très content d'avoir appris plein de trucs... B) ! Cher Cosinus, mais comme dans toutes ces discussions qui s'éternisent Cette réflexion ,m'a fait réfléchir une partie de la nuit, et je comprends mieux maintenant ce point de vue si répandu (dans les forums). Il est des questions que je me pose depuis mon enfance (disons à l'âge dix, onze ans) . Il y en a énormément d'autres !!!L'Univers est-il fini? Infini?L'Univers est-il continu ? , discontinu ?Et je commence à peine à me forger une opinion sur ces deux questions ! J'estime personnellement (ce n'est pas un pléonasme, mais volontaire) qu'on a toute la Vie, pour répondre aux questions qui nous sont posées justement par le fait de vivre.Alors les discussions ici peuvent bien s' "éterniser" quelques années de plus, je ne demande que çà, et le plus longtemps possible. Certains trouveront tout de suite des réponses auprès des "curés", de l' "école", ou des "gourous", et n'en changerons plus de leur vivant ou alors exceptionnellement une seule fois. D'autres , comme moi, continueront à chercher, même s'ils ont l'impression d'avoir trouvé. Et si je m'étais trompé?La Vie dans ce cas consiste à accepter, que nous ne savons pas grand chose . Dans l'autre cas , nous sommes étouffés de certitudes. D'autres abdiquerons rapidement devant la difficulté de se faire une opinion soi même et adopteront celle de la majorité bien pensante.Et on sait que la majorité des gens adopte l'opinion de la majorité des autres. Pensée unique donc. Je comprends donc pourquoi on me soupçonne de vouloir "avoir raison" ou "avoir le dernier mot", attitude puérile (niveau maternelle) que certains gardent toute leur vie... (Voir sur d'autres forums). Après, ici dans MikrOscOpia on est libre de lire, de ne pas lire ; de participer (il vaut mieux sinon on n'existe même pas) ou pas ; d'être d'accord ou pas ; d'ouvrir des sujets ou pas. On est aussi libre de se tromper, ce n'est pas grave.(vous voyez, tout est possible quand on sait attendre, je viens de découvrir à quoi sert le point virgule : Eurêka !)Mais de grâce, ne quittez pas le forum (comme dans d'autres forums) ou ne vous insultez pas (comme dans d'autres forums) parce qu'on ne pense pas comme vous. C'est décidément puéril (niveau cour de maternelle). Je constate bien au contraire la haute tenue des débats : merci à tous. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 22 décembre 2015 Admin Signaler Partager Posté(e) le 22 décembre 2015 D'ailleurs les enregistrements audio professionnels sont faits à 192 kHz et pas à 30 kHz qui suffiraient si on appliquait strictement ce critère aux sons audibles. Donc 6 fois mieux que Nyquist. Est-ce-qu'on n'a pas vu quelque chose d'approchant dans la discussion ci-dessus ?Bonjour Jérôme. Tu justifie en raisonnement en optique par un comportement en acoustique.Cela peut se défendre, mais ce n'est pas moi qui le ferais. En science, il y a le principe d' Ockham (ou Occam) dit Principe du Rasoir d' Ockham.En commerce, il y a le principe de l'argument de vente,.La course aux Mega-pixel, comme la course aux KHz peut être interprétée plus comme un argument de vente qu'une nécessité scientifique.C'est mon opinion en tout cas cela ne constitue pas une preuve. Je me souviens des normes HI FI 20 / 20 000 . Qui entend le 20 et qui entend le 20 000.? On a essayé de me démonter que quand une chaîne Hi FI, est bonne de 20 à 20 000 Hertz , elle est excellente dans les fréquences audibles .Mais à quoi ça sert de fabriquer des amplis, et des haut parleurs qui débitent du 172 000 Hz ? (je sais que ce n'est pas possible)Avec des courbes, de belles formules, c'est comme en politique , on peut tout démontrer, tout prouver.Il y aura toujours des gens pour acheter des Bugatti Veyron Grand Sport Vitesse ou des Ferrari FXX K pour ne pas parler des Koenigsegg Agera RSet être limité par le code de la route à 30, 50, 90 ou 130 Km/h.Quand un ampli a une montée en signal carré époustouflante ou une voiture de sport un 100 Km/h départ arrêté foudroyant, ce n'est pas parce qu'elle dépasse de 10 fois la vitesse autorisée par la loi, ce sont des choses différentes.Ne confondons pas les lois du commerce, avec la réalité scientifique, si tant est qu'on la connaisse. Les lois du commerce et la psychologie humaine, on les connais mieux. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 J'essaie simplement d'expliquer que l'échantillonnage au sens de Nyquist-Shannon conserve l'information spectrale mais dégrade le signal. Que pour ne pas trop dégrader le signal, il faut échantillonner à des fréquences plus élevées. Le traitement du signal a de fortes ressemblances entre des signaux électriques, issus de sources différentes : audio, radio, hypefréquences (signaux monodimensionnels, fonction du temps) et de l'optique (signaux bidimensionnels dans l'espace). Beaucoup de règles qui s'appliquent aux uns s'appliquent aux autres. Si des professionnels numérisent les signaux à 192 kHz / 24 bits, c'est pour ne pas les dégrader, les conserver et pouvoir faire du traitement dessus. Ensuite, ils sont repassés à 44 kHz et moins de niveaux pour diffusion grand public. Apparemment ils se sont aussi aperçus que l'échantillonnage Nyquist-Shannon dégradait le son, comme j'espère t'avoir montré qu'il dégradait l'image... Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 Bonjour Tryphon,Je comprends que le mot "s'éternisent" te fasse réagir, mais ce n'était pas le principal de mon post...D'autre part, tu sais, "les bons curés" et "les bonnes écoles" n'interdisent pas de réfléchir... tu as sûrement eu de mauvaises fréquentations... B) !AmicalementLou Ravi ... en ces temps de Noël ... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 22 décembre 2015 Admin Signaler Partager Posté(e) le 22 décembre 2015 Tu as peut-être raison, peut-être tort, je ne sais pas.Je cherche à comprendre et je n'ai pas encore compris.Quand j'aurais compris, je te le dirais, sois-en sûr. Et je serais content.Mais pour moi, des professionnels çà ne veut rien dire, en tout cas pas s'ils ont raison de le faire.Les professionnels ne fabriquent pas les machines qu'ils utilisent, et je sais bien qu'avoir la dernière machine, la plus chère possible , augmente leur prestige, et comme ce n'est pas eux qui payent , alors pourquoi s'en priver.La course à l'appareillage, je connais.192 000 Hz alors qu'on plafonne à 10 000 et légèrement plus quand on est jeune, çà me fait rigoler.Le son est peut-être meilleur sur une courbe, un appareil a affichage numérique, mais comme on ne l'entend pas, cela me fait une belle jambe (et vous savez que j'ai pratiqué la savate!)Pour l'image c'est pareil, si l'image est meilleure sur les courbes, mais si on ne voit aucune différence à l'écran où au microscope, cela me fait deux belles jambes.Attention, quand on sait, toutes les astuces qui sont employées dans les appareils numériques pour "améliorer le signal" , pour que l'image (ou le son) ressemble le plus possible à nos attentes, il faut pouvoir dans une image déterminer "qui fait quo"i ? L'échantillonnage ou le traitement magique du signal.J'ai demandé hier à un photographe quelle différence il voyait au niveau de la qualité entre son reflex numérique de grand prix et son iphone 6, : à par la richesse des réglages la qualité de l'image était identique.Attendons d'autres informations qui justifient l'hyper-échantillonnage, et non les pratiques de certains professionnels.Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 22 décembre 2015 Admin Signaler Partager Posté(e) le 22 décembre 2015 . tu as sûrement eu de mauvaises fréquentations... Sûrement: D'une manière certaine, évidente , mais je crois en bonne objectivité que tu voulais dire "peut-être" . Je comprends que le mot "s'éternisent" te fasse réagir,Pas du tout . Je ne réagis pas comme tu l'entends ou tout au moins comme je pense que tu l'entends.Ce n'est pas un réflexe conditionné , j'ai simplement, comme je te l'ai expliqué , enfin compris le comportement de certains lecteurs face à une discussion longue et ardue. Bien entendu, ce n'était qu'une parenthèse, revenons à nos pixels. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 "Pour l'image c'est pareil, si l'image est meilleure sur les courbes, mais si on ne voit aucune différence à l'écran où au microscope, cela me fait deux belles jambes." Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus. "192 000 Hz alors qu'on plafonne à 10 000 et légèrement plus quand on est jeune, çà me fait rigoler." Ne pas confondre fréquence acoustique (ou fréquence spatiale) et fréquence d'échantillonnage. C'est le sujet. Tryphon est un Saint Thomas au carré : (Saint Thomas)2. A Saint Thomas, Notre Seigneur a dit : “Parce que tu m’as vu, tu as cru. Heureux ceux qui n’ont pas vu, et qui ont cru !” » (Jn 20, 24-29). Tryphon voit (des images virtuelles, l'effet de l'échantillonnage) et ne croit toujours pas... Bien amicalement et Joyeux Noël Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 22 décembre 2015 Admin Signaler Partager Posté(e) le 22 décembre 2015 Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus. J'ai bien répondu, il me semble. La pixellisation a pratiquement disparu. Image à comparer à celle de la caméra 3 M pixels. Oui, mais, il ne faut pas en tirer des conclusions erronées.Dans le deuxième cas, il y a plus de pixels dans l'image, il est tout à fait logique que l' images vue à la même échelle, paraisse moins "pixellisée" Dans tous les autres cas, tu nous fait voir des images sous-échantillonnées, cela n'a aucun intérêt, tout le monde connait déjà le résultat. Ensuite, c'est Lapalisse qui parle.Si je prends en image un sujet avec des sites de 10 µ et ensuite le même sujet avec des sites de 5 µ , deux cas de figure. 1- Les pixels de l'image A et l'image B à l'écran sont de la même taille , et l'image B sera deux fois plus grande .2- les images A et B sont à la même échelle et les pixels de l'image B seront donc deux fois plus petits que ceux de l'image A.C'est ce que tu as fait, alors pourquoi s'étonner que la " pixelisation " , c'est à dire la vision des pixels en tant que tels, ait diminué de moitié (presque disparus dis-tu.) ? Maintenant si nous sur-échantillonnons non pas de deux fois, mais de dix, les pixels ne seront plus du tout visibles, à la même échelle , l'apparence de la photo en sera nettement améliorée, donc plus "agréable" au regard mais ce n'est pas pour autant qu'elle sera plus conforme à la réalité ! (1) Sauf pour St Thomas ! Quelle que soit la taille du photo-site, la photo numérique, sera toujours une photo , et chaque pixel sera NET .Un pixel est toujours net, même si la photo n'est pas nette ! (1) Cette réalité on peut la connaitre par exemple en changeant la longueur d'onde de la source d'éclairement.Si on utilise des électrons, on pourra juger si une photo "photonique" est vraie ou non, mais quand on arrive à la limite de diffraction du ME, on est à nouveau dans l'incertitude quand on prétend regarder "plus fin " que cette limite. Justement, il me semblait qu'on pouvait voir une différence sur les images que j'ai envoyées. Je regrette de ne pas avoir de commentaires directs dessus. Oui, il y a bien une différence en ce qui concerne la taille des pixels quand l'image est à la même échelle.Il y a plus de pixels dans une même surface et donc, l'image numérique a une meilleure résolution. Mais ce n'est pas pour autant qu'on voit mieux la RÉALITÉ. Même avec un nombre astronomique de pixels, un capteur couplé avec un microscope photonique ne donnera jamais la résolution d'un microscope électronique et l'image, qui sera bien réelle, avec une résolution astronomique bien réelle ne contiendra pas plus d'informations qu'en appliquant le facteur de Nyquist. Ensuite comme chaque pixel couleur est le résultat d'interpolation des valeurs des pixels adjacents , plus le nombre de pixels est élevé et plus l'image paraîtra bonne, par effet de renforcement du contraste. Si en plus, le signal est traité, par des algorithmes inconnus (de moi), dès la sortie du capteur, et comme le but d'un appareil photo est de faire des photos humainement correctes, le résultat final ne peut qu'en être plus satisfaisant. Refais la même expérience avec des capteurs monochromes et en format d'image brut de capteur, et là nous pourrons discuter plus sérieusement. En imagerie scientifique, la couleur, telle qu'elle est reconstituée actuellement me parait rédhibitoire. Il ne sert à rien de faire des test avant/après comme en photographie généraliste, et en couleur, quand on travaille en microscopie en haute résolution, c'est à dire à la limite des capacités théoriques des objectifs. On n'est jamais sûr de ce que l'on voit, car tous les détails ne sont pas séparés et tout ce qui apparaît entre les détails, n'est que fantasmagories. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
savant Cosinus Posté(e) le 22 décembre 2015 Signaler Partager Posté(e) le 22 décembre 2015 Refais la même expérience avec des capteurs monochromes et en format d'image brut de capteur, et là nous pourrons discuter plus sérieusement. ... le problème c'est que comme dit par ailleurs, nous sommes "condamnés" à utiliser des capteurs couleur avec un "traitement d'image"... ce qui pour le forum est préférable à pas d'image du tout, pour moi la théorie a ses limites, mais elle a tout à fait sa place ici. Je l'ai déjà dit, je m'instruis. Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 7 janvier 2016 Auteur Signaler Partager Posté(e) le 7 janvier 2016 Bonjour, Dans mon message de départ je n' avais pas pu continuer mon test avec les objectifs x60 et x100 à immersion pour cause de problème de distance de travail trop courte avec la préparation.J' ai enfin trouvé un autre sujet: une diatomée récupérée sur des coquilles d' huitres mise entre lame et lamelle dans l'eau. Je pense que c' est pleurosigma angulatum. Le nombre moyen de stries pour 10 µm va de 18 à 22 (Maurice Loir);J' ai mesuré une distance moyenne entre 2 aérolations de 0,65 µm soit un peu plus de 15 stries pour 10 µm: Cette photo permet d' avoir une vue d' ensemble (obj. x100) le contraste a été rehaussé pour mieux visualiser les aérolations Les autres photo sont dans le message suivant Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 7 janvier 2016 Admin Signaler Partager Posté(e) le 7 janvier 2016 Il est toujours plus intéressant de montrer les zones significatives . Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 7 janvier 2016 Auteur Signaler Partager Posté(e) le 7 janvier 2016 Voici les photos prises dans les même conditions qu' au départ pour: L' objectif x60 recardées en 312x232 pixels fréquence capteur 227 (OK) L' objectif x60 recardées en 312x232 pixels fréquence capteur 114 (OK) L' objectif x60 recardées en 312x232 pixels fréquence capteur 57 (Insuffisant ) L' objectif x60 recardées en 312x232 pixels fréquence capteur 28 (Insuffisant) L' objectif x100 recardées en 312x232 pixels fréquence capteur 227 (OK) L' objectif x100 recardées en 312x232 pixels fréquence capteur 114 (OK) L' objectif x100 recardées en 312x232 pixels fréquence capteur 57 (Insuffisant mais on aperçoit qq stries) L' objectif x100 recardées en 312x232 pixels fréquence capteur 28 (Insuffisant) Pour bien se rendre compte du résultat il faut augmenter le contraste des photos et les remettre aux mêmes dimensions en cm; Bien qu' il soit perfectible ce test permet de se faire une idée de la réponse du capteur. cordialement,JL Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 7 janvier 2016 Signaler Partager Posté(e) le 7 janvier 2016 Bonjour Jean-Luc, c'est bien de faire des essais réels avec des objectifs différents. Je pense cependant qu'il faudrait ré-agrandir les photos (ou un fragment) pour qu'elles soient à la même échelle, ce qui faciliterait la comparaison. En numérotant tes photos de 1 à 8 :- je ne vois plus les trous sur la photo 2- sur la photo 3 il y a un effet de moiré, ce qui arrive quand on échantillonne à une fréquence proche de celle de l'objet- photo 7 : est-ce aussi du moiré ? Cordialement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jean-Luc Bethmont (Picroformol) Posté(e) le 7 janvier 2016 Auteur Signaler Partager Posté(e) le 7 janvier 2016 En fait je me suis rendu compte après coup que j' avais recadré les photos en imposant un nombre de pixels pour hauteur et largeur alors que, pour mieux comparer, j' aurais dû imposer une hauteur et largeur fixe en unité de longueur(P.E. (500 µm sur 400 µm). Jérôme voici la photo 2 traitée (contraste, luminosité, etc...) on voit bien les trous: Photo 3 c' est du moiré photo 7 j' hésite la voici ci dessous: Je pensais que le moiré arrivait si on suréchantillonnait de trop ? Dans cette démarche j' ai choisi le fait que le capteur ignore certains pixels pour obtenir les échantillonnages inférieurs il faudrait aussi faire la manip avec le binning car chaque "superpixel" créé recevrait plus de lumière ce qui diminuerait le bruit.Cordialement,JL Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 8 janvier 2016 Signaler Partager Posté(e) le 8 janvier 2016 (modifié) Effectivement, sur ta photo agrandie on voit bien les détails. Le moiré est dû à un échantillonnage très proche de la fréquence que l'on observe. Dans ce cas, selon la synchronisation entre le signal et l'échantillonnage, il y a de grandes variations dans le signal. Un exemple classique est donné par les voilages devant les fenêtres. Quand le tissu est en double dans les plis, selon que les fils sont en face des fils ou en face des trous, on voit des zones plus claires et plus sombres. Comme l'écartement entre les fils n'est pas parfaitement constant, cela fait des dessins. C'est le moirage. Reprenons le cas de l'échantillonnage d'un signal blanc/noir par un CCD. Premier cas à deux photosites par cycle (un cycle c'est un blanc + un noir) : En noir, l'éclairement vu de profil, en bleu les photosites et en rouge le signal de sortie. Ici pas de chance,les photosites captent tous du blanc et du noir en quantité égale : le signal résultant est uniformément gris. En décalant latéralement : Le signal est "parfaitement" restitué. Entre les deux, on percevra plus ou moins de modulation. Si la fréquence d'échantillonnage est légèrement différente de la fréquence qu'on observe, il y aura des endroits où on sera "en phase" où on verra la modulation et des endroits où l'on sera "en quadrature" (décalage d'un quart de cycle) où l'on ne la verra plus, d'où effet de moiré. En sous-échantillonnant comme tu le fait, on se trouve dans le cas suivant où un détecteur sur deux n'est pas utilisé : ou, selon le décalage : Si la fréquence d'échantillonnage n'est pas exactement un sous-multiple de ce qu'on observe, il y aura à nouveau des décalages et des zones plus ou moins claires, d'où à nouveau effet de moirage. A l'inverse, si l'on échantillonne mieux, comme dans l'exemple suivant, à 4 échantillons par cycle : il y a une dégradation du signal, mais il n'y aura pas d'effet de moiré, s'il y a un décalage latéral. En résumé, le moiré apparait en cas d'échantillonnage voisin de deux échantillons par cycle ou un sous-multiple. Un échantillonnage correct du signal nécessite 8 à 10 échantillons par cycle (j'insiste :blink: ), pour ne pas le dégrader et il n'y aura pas de moiré ! Cordialement Modifié le 8 janvier 2016 par jmaffert Lien vers le commentaire Partager sur d’autres sites More sharing options...
Claude Brezisky Posté(e) le 8 janvier 2016 Signaler Partager Posté(e) le 8 janvier 2016 Bonjour,Quel est le média employé pour ton montage?CordialementClaude Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 8 janvier 2016 Admin Signaler Partager Posté(e) le 8 janvier 2016 Bonjour, Je crois qu'il ne faut pas tout mélanger.Dans une image aussi complexe que celle dune diatomée, plusieurs phénomènes se superposent et parfois portent le même nom. Le Binning : rien à voir avec l' Interpolation de pixels pour créer une image en couleur. Il y augmentation du contraste et du rapport S/B et perte de résolution. L'interpolation : Elle permet de recréer la couleur à partir d'un capteur monochrome muni d'une matrice colorée Le crénelage: en anglais Aliasing.A l'échelle du pixel, une ligne oblique est représentée par un escalier. Normal , on ne peut pas faire autrement. Anti-Aliasing: (ou anti-crénelage.)Procédé artificiel (trucage) pour diminuer l'effet, sur notre sens esthétique, du crénelage. A- Hardware : Pour un capteur donné on diminue la résolution de l'image (puisqu'on ne peut pas augmenter la résolution du capteur !)En utilisant un filtre anti-aliasing qui diminue la résolution de l'image. B- Software : Soit toujours artificiellement, on incorpore des pixels "gris" (de valeur intermédiaire par interpolation quand on est en couleur) dans les "créneaux vides" Le moirage : C'est un phénomène interférentiel qui apparaît quand deux réseaux sont superposés.L'exemple du rideau est un phénomène que je m'expliquais déjà dans mon enfance (pour ne pas dire mon berceau) Quand on observe certaines diatomées, il y a jusqu'à 3 systèmes de réseaux qui se superposent plus le crénelage du capteur . On observe nécessairement des artefacts. L' Aliasing se traduit en terme d'échantillonnage du signal par repliement du spectre : Définition de repliement de spectre selon Wikipedia : Le repli de spectre (Aliasing en anglais) est un phénomène qui introduit dans un signal qui module une fréquence porteuse ou dans un signal échantillonné des fréquences qui ne devraient pas s'y trouver, lorsque la fréquence porteuse ou la fréquence d'échantillonnage sont inférieures à deux fois la fréquence maximale contenue dans le signal.(Ce n'est pas moi qui insiste) Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
jmaffert Posté(e) le 8 janvier 2016 Signaler Partager Posté(e) le 8 janvier 2016 Je vois que notre cher Tryphon continue à joyeusement mélanger les concepts :- d'analyse de spectre- de visualisation d'un signal ou d'une image Oui, quand on veut numériser un signal pour en mesurer le spectre, une échantillonnage légèrement supérieur à deux fois la fréquence maximum est suffisant pour retenir l'information fréquentielle.Non, quand on veut visualiser un signal, cet échantillonnage est notoirement insuffisant. Tu t'es probablement servi d'un oscilloscope numérique. T'es-tu demandé à quelle fréquence était échantillonnée la jolie sinusoïde que tu regardes ? certainement à deux échantillons par cycle !! Amicalement Lien vers le commentaire Partager sur d’autres sites More sharing options...
Admin Tryphon T Posté(e) le 8 janvier 2016 Admin Signaler Partager Posté(e) le 8 janvier 2016 Je constate que notre cher Jérôme, revient à des considérations moins théoriques. Dans nos microscopes nous regardons et photographions des images limitées en résolution par les lois de la physique.Rien ne sert à vouloir dépasser ses lois.Bien entendu, tout bon scientifique essayera de les prendre en défaut et à les contourner.Mais les faits sont têtus ! Bien entendu, si on veut minimiser les effets du crénelage, on peut essayer de diminuer la taille du photo-site, même le plus sot peut le comprendre, mais, il arrive un moment où on se heurte à des LIMITES. Tu t'es probablement servi d'un oscilloscope numérique. Oui, même analogique : mais là aussi, il y a des limites physiques Analogie trompeuse donc.Ce n'est pas parce que dans une certaine gamme de mesures on peut toujours trouver une fréquence qui nous donne une courbe parfaite, pas "pixélisée" du tout, que l'on peut continuer ce petit jeu à l'infini! Je rappelle que nous parlions d'images à la limite de la résolution théorique et non dans le domaine, où l'on a "de la réserve" pour agrandir le cliché.Cela m'évoque, certaines séries policières, où l'on agrandit des images quasiment à l'infini pour voir LE détail capital !Cela me rappelle aussi la célèbre affaire dite: " Le mystère dans les yeux de Notre Dame de Guadalupe"http://www.sancta.org/eyes_f.html Je ne veux heurter aucune conviction, mais, il ne faut pas trop pousser... Amicalement. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés