Aller au contenu


***** Bienvenue dans le forum MikrOscOpia ! *****
Photo

Taille de l'image a l'écran... du PC


  • Veuillez vous connecter pour répondre
81 réponses à ce sujet

#1 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 01 décembre 2015 - 06:42

Bonjour,

 Appel aux informaticiens !

  Désolé de pinailler, mais puisqu'on a parlé de la taille des photosites qui doit s'adapter à la résolution du microscope, qu'en est-il à l'autre bout de la chaine... sur l'écran de l'ordinateur ?

  - Je prends un cliché avec mon APN avec un format voisin de celui de l'écran de mon ordinateur, 16/9, l'écran de l'ordinateur a une taille de 1366 x 768 "pixels"

  si le cliché fait  2560 x1440, l'ordinateur "l'adapte" à la taille de mon écran... que deviennent les "pixels" superflus ? ... il en manque pour que mon image soit "exacte"...?

 Le logiciel qui traite les images arrive-t-il à tromper son monde...  surtout quand on fait des clichés à 16 Mpx... pour respecter la résolution du microscope et couvrir le champ de l'image, je fournis 16 Mpx et mon écran m'en rend 1 Mpx... :wacko: Si j'affiche à 100%, j'ai seulement une petite partie de mon image qui ne veut rien dire... A l'écran il faut aussi choisir entre champ et résolution ?

  Je mets volontairement de coté la notion de résolution de l'écran ( DPI ), considérant l'écran standard de Monsieur Tout le Monde...

 Autrement dit que devient le pixel donné par mon capteur une fois arrivé sur mon écran ? toutes les précautions prises au départ de la chaine de l'image ne sont-elles pas "gachées" par l'affichage à l'écran ?

 

 Cosinus... sans méchanceté  B)

 


  • 0

#2 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 01 décembre 2015 - 10:27

Bonsoir Cosinus,

C'est très simple tout çà !

D'abord, c'est quoi un pixel ?

C'est l'élément de base d'une image numérique.
On ne peut pas couper un pixel en deux puis qu'il n'a aucune dimension, il est virtuel.

Une image numérique c'est quoi ?
C'est une image composée de pixels. Elle n'existe que dans la mémoire d'un ordinateur (ou un autre élément de stockage. )

Le pixel, tout comme l'image numérique n'ont aucune dimension !!!

Mais revenons un peu en arrière :
Tu dis que le photo-site a une taille , "çà c'est vrai !", et le point élémentaire de l'image réelle projetée sur le capteur a aussi une taille et cette taille dépend de l'objectif du microscope et d'autres facteurs comme les dispositifs utilisés pour faire "correspondre " la taille de ce "point" image à la taille de la cellule de base du capteur.
Et le capteur fournit à l'ordinateur une image immatérielle.

Maintenant pour re-matérialiser l'image numérique, il faut un organe de sortie graphique, écran, feuille de papier etc...

Dans la chaîne idéale de transmission de l'information contenue dans une image, il faut qu'un point image, corresponde à un point du périphérique de restitution.
Entre les deux, l'image matérielle (réelle) disparaît , devient un ensemble d'informations qui peuvent être traitées informatiquement.
(L'informatique est l'ensemble des moyens de traitement de l'information contenue dans des mémoires.)

Autrement dit en prenant une information contenue dans une image numérique on peut sans aucun problème, avec les moyens de l'informatique, la transformer en une autre information.

Le logiciel qui traite les images arrive-t-il à tromper son monde..


Bien évidemment qu'il le fait ! La photographie est un art et les appareils photos sont prévus pour que l'art du photographe s'exprime.
C'est pour cela que les photographes n'aiment pas les appareils automatiques, il leur faut des tas et des tas de réglages, non pas pour que le résultat soit conforme à la réalité mais conforme à ce qu'ils veulent que soit la réalité.

La vraie photographie scientifique c'est tout autre chose.

que deviennent les "pixels" superflus ? ..

Si tu veux afficher un paysage en entier, quatre fois plus grand que ton écran (en nombre de pixels) , tes tas et des tas de pixels vont sauter. Ils seront toujours présent dans ton jpeg, mais ne seront pas affichés à l'écran.
Par contre si tu veux afficher " un pixel pour un pixel" , c'est à dire à l'échelle UN, ton paysage ne sera pas vu en entier.
Mais ce raisonnement ne s'applique pas à la microscoipie !

pour respecter la résolution du microscope et couvrir le champ de l'image, je fournis 16 Mpx et mon écran m'en rend 1 Mpx... :wacko: Si j'affiche à 100%, j'ai seulement une petite partie de mon image qui ne veut rien dire... A l'écran il faut aussi choisir entre champ et résolution ?

C'est ce que j'ai appelé il y a plus de 10 ans, la course aux mégapixels.
En microscopie, cela ne sert à rien d'avoir 5, 10, 15, 100 Mégapixels !

Un calcul simple :
Un objectif de 100, X ON 1.25, donne au niveau de l'image intermédiaire des détails de 25 µ soit 40 points au mm.
Comme le champ de l'image intermédiaire fait 18 mm cela fait sur un diamètre , 40 X 18 = 720 points.
Soyons généreux, disons 1000 points et comme le format des capteurs n'est pas rond, disons que l'image fera 1000 X 1000 = 1000 000 points.
Pour respecter le critère d'échantillonnage, il faudra que le capteur comporte 2 000 000 points . soit 2 Mega-Pixels !
Pour le champ, il faudra que les cellules du capteur fassent 12 µ et le capteur 12 mm au carré.

A l'écran il faut aussi choisir entre champ et résolution ?
toutes les précautions prises au départ de la chaine de l'image ne sont-elles pas "gachées" par l'affichage à l'écran ?


Non, il faut bien choisir son capteur.


Amicalement.


.
  • 0

#3 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 02 décembre 2015 - 02:19

Bonjour Tryphon,

Merci de tes explications qui me rassurent,  j'avais fait ton calcul et le résultat, 2.000.000 de pixels me paraissait bien faible mais il faut se rendre à l'évidence, photographes et microscopistes ne devraient pas utiliser les mêmes appareils.

Par contre:

Pour le champ, il faudra que les cellules du capteur fassent 12 µ et le capteur 12 mm au carré.

 

Non, il faut bien choisir son capteur.

 

... je pense que tu as voulu dire: "et le capteur 18 mm au carré" ( racine carrée de 2.000.000= 1414, et  0.012 mm. x 1414= 16.9 mm. ) et un capteur de 2 Mpx de cette taille n'existe pas à ma connaissance, ce qui nous ramène au choix entre champ et résolution... et finalement il n'y a pas d'autre solution que de "gaspiller les pixels"... B)

Amicalement

Cosinus... qui a fini par comprendre du début à la fin... !


  • 0

#4 pablito

pablito

    Homo sapiens microscopicus

  • Co.Admin
  • 1 241 messages

Posté 02 décembre 2015 - 02:36

En microscopie, cela ne sert à rien d'avoir un capteur de 5, 10, 15, 100 M pixel...
C'est vrai . Mais, l'amélioration des capteurs de ces dernières années n'a pas joué que sur le nombre de pixel.
Elle a aussi joué sur la dynamique des capteurs, c'est à dire la tolérance à restituer des informations dans les très basses et très hautes lumières, et en particulier la capacité à faire de bonnes photos en faible lumière (3200 Iso et plus)
Et cela c'est important pour nous microscopistes
Les capteurs d'appareils photo ont cet énorme avantage

Pierre
C'est pourquoi
  • 0

#5 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 02 décembre 2015 - 03:37

Bonjour les amis,

 

La réalité est bien plus subtile que çà.

Je ne vous ai pas tout dit !!

 

Il faut tenir compte d'un autre phénomène: le rapport entre le grossissement de l'objectif et sa résolution.

Dans mes raisonnements, je privilégie toujours, la haute résolution car pour moi, un microscope est fait pour donner le plus petit détail sur l'objet.

La vision d'ensemble m'intéresse moins dans la mesure où on peut mentalement reconstituer cet ensemble à partir de détails précis, alors qu'à l'inverse, un bel ensemble ne va pas donner suffisamment de détails.

C'est encore la "vision du microscopiste et la vision du photographe" 

Cela se lit très bien dans ce tableau que je viens de vous faire.

 

 

Resels.JPG

Les dernières colonnes donnent le nombre de points résolus au niveau de l'image intermédiaire (resels).

 

On aperçoit qu'il faut PLUS de pixels pour un objectif faible que pour un objectif fort, alors, ceux qui préfèrent le champ (grossissements plus faibles)  ont plus raison de vouloir plus de pixels , mais cela ne sert quand même à rien d'en avoir trop !

 

J'ai inclus un objectif atypique 80 X, qui lui sort de la "courbe", car le but recherché n'est pas le même que pour la série principale d'objectifs.

 

On remarquera que , bien évidemment, le nombre de pixels nécessaires et suffisants, dépend du champ du microscope.

Pas non plus besoin de ngros moyens avec un champ de 18 mm (laplupart des cas)

 

Alors, partir de principes absolus (plus il y a de pixels dans mon appareil, plus il est bon) basés sur des considérations commerciales pour se faire une idée de nos véritables besoins, ce n'est pas mon truc.

 

La dynamique des capteurs, n'a non plus rien à voir avec nous, pas plus que les gros capteurs (photo-sites) qui captent plus de lumière.

A part le photographe de studio, en photographie générale, tout comme en astronomie, nous n'avons pas le choix de l'éclairage , ce qui est loin d'être le cas en microscopie.  Ou alors, il faut que le sujet bouge beaucoup et qu'on veuille le filmer, mais pour la photo "niet". (Comme disait Khrouchtchev)

 

Amicalement.

 

 

 

 


  • 0

#6 Claude Brezisky

Claude Brezisky

    Reptile

  • Membre confirmé
  • PipPipPipPipPipPip
  • 650 messages

Posté 02 décembre 2015 - 06:49

Michel,

Sans vouloir te contredire, je ne comprends rien à ta démonstration et ton image intermédiaire.

Le capteur, quelque soit l'appareil, comprends un nombre de photosites bien défini par le fabricant, ils restent constant quelque soit l'objectif utilisé faible ou fort.

on est d'accord?

L'image produite par un objectif faible représentera une plus grande surface de l'objet que celle d'un objectif fort au niveau du capteur qui lui est toujours bien défini et identique.

Pour une mème surface de l'objet on aura donc plus de photosites impactés sur le capteur avec un objectif plus puissant.

on est toujours d'accord?

pour une surface de capteur identique, plus les photosites seront nombreux, plus ils seront petits.

1,4 pour 18 Mp par exemple.

d'accord?

L'avantage de beaucoup de pixels, la définition est meilleure: plus de photosites pour une surface donnée, et photosites plus petit, la possibilité de faire un cadrage sur une partie de la photo, par exemple sélectionner 1/4 de la surface de la photo, on aura alors une photo échelle 1 de 4,5 Mp (plein écran) au lieu de 1,25 Mp pour une camera de 5Mp qui donnera une petite photo en plein écran.

Voilà mon opinion que vous pouvez et devez critiquer :wub:

Cordialement

Claude


  • 0

#7 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 02 décembre 2015 - 08:25

Bonjour Claude,

Spoiler

 
L'objectif du microscope peut être remplacé par une simple lentille : une loupe .
Cette loupe-objectif possède certaines propriétés.
Elle grossit l'objet un certain nombre de fois.
Elle possède un pouvoir séparateur.
Autrement dit, elle va voir des petits détails  sur l'objet que l'on peut mesurer (ou calculer)
Ces petits détails seront grossis au niveau de l'image qu'il fabrique : l'image intermédiaire.
 
Par exemple un objectif de 10X qui verrait des plus petits détails de 1µ formerait ces "détails" agrandis de 10 µ (1 X 10)
C'est ce qui s'appelle des RESELS (RESolution ELéments)
 
Comme le diamètre de l'image intermédiaire est de 18 mm (dans un microscope standard et parfois plus (20,22 mm ou un peu plus) dans les microscopes haut de gamme, on peut dire qu'il y a  1 800 resels dans un diamètre et 2 547 126 sur l'ensemble du champ.
 
Donc, 1µ sur l'objet et 10µ sur l'image . (Résolution 1µ et Grossissement 10 X)
 
Maintenant, si on met le capteur au foyer de l'objectif, ou si tu préfères on projette l'image de l'objectif sur le capteur, il faut que les photo-sites soient deux fois plus petits que les resels (C'est la loi de l'échantillonnage) ( 1)
 
On a donc tous les éléments pour calculer la taille des photo-sites pour un objectif donné.
Ici dans l'exemple :
 
En gros, il faudrait un capteur de 4 Mega pixels (c'est un exemple !)
 
Maintenant si on dépasse ce chiffre, on n'obtient aucune information supplémentaire, c'est du grandissement à vide !
L'objectif délivre 2 Mega  pixels d'informations (dans l'exemple) si le capteur en délivre 15 Mega, il invente 11 Mega Pixels ! (Il faut 2 photo-sites pour 1 resel)
 
On a l'illusion de pouvoir recadrer , mais on ne recadre qu'une image de moins bonne qualité.
Bien sûr, artificiellement on peut jouer avec les algorithmes de traitement d'image et améliorer la lisibilité de l'image, mais c'est totalement artificiel, cela ne correspond à aucune réalité, même si le photographe est content du résultat.
 
 
Amicalement.
 
 
(1)(Dans le cas où l'on rajoute une lentille pour adapter le champ de l'image intermédiaire à celui du capteur, il faut tenir compte du grossissement de cette lentille, mais le raisonnement est le même.)


  • 0

#8 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 02 décembre 2015 - 09:49

Trouvé sur le net :

 

.

Je vois avec mon "APN" , j'ai + de 8000 pixels de large et + de 4000 pixels de haut pour photographier une surface grande comme l'ongle de mon petit doigt !!!
Cela permet des recadrages et des agrandissements geants ou la limite est la lumiere est sa longueur d'onde, avec des objectifs microscope au top bien sur .

 

Si j'ai 1000 points dans un diamètre de mon image intermédiaire et au final 8000 pixels sur la photo dans le même diamètre, L'appareil photo aura inventé 7000 points qui n'existent pas. 

Je peux donc m'amuser à faire des agrandissements géants ou des recadrages , il y a de la marge, mais cela ne correspond pas à la réalité.

 

Pris sous un autre angle, cela voudrait dire que l'appareil photo augmente le pouvoir séparateur du microscope, ce n'est bien évidemment pas sérieux...

 

Amicalement.


  • 0

#9 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 02 décembre 2015 - 10:16

Bonjour Claude,

 Je crois que Tryphon a raison :(

 Le capteur est au niveau de l'image intermédiaire, il reçoit cette image intermédiaire (de 18 mm. de diamètre) dans laquelle le plus petit point individualisable (ou résolution, ou "resel") a une dimension est égal à la résolution (de l'objectif) x par le grossissement (de l'objectif)... on peut donc en connaitre le nombre de resels dans ce cercle de 18 mm. : 2.000.000 dans l'exemple.

Si en face tu mets un capteur (de la taille de ton image: 18 mm.) de 10.000.000 de pixels, un point de l'image sera vu par 5 photosites du capteur mais le cliché ne sera pas plus précis pour autant, ton "point" sera seulement plus "gros" (grandissement à vide)... et le fait de recadrer de 1/5 par exemple te restitura ton point ... comme il était au départ... donc pour 2.000.000 de point, 2.000.000 de capteurs suffisent . 4.000.000 en fait car on considère qu'il faut deux capteurs par "point" ou resel.

Mais comme je le disais, un capteur de 4.000.000 de pixels de 18 mm. x 18 mm. (pour couvrir le champ de l'image intermédiaire)...ça n'existe pas !

Amicalement

Cosinus

P.S. d'autant plus qu' à lautre bout de la chaine, il y a un écran qui ne donne que 2.000.000 "de points"...


Modifié par savant Cosinus, 02 décembre 2015 - 10:28 .

  • 0

#10 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 02 décembre 2015 - 10:39

... :)

Trouvé sur le net :

 

.

Citation

Je vois avec mon Nikon "APN" , j'ai + de 8000 pixels de large et + de 4000 pixels de haut pour photographier une surface grande comme l'ongle de mon petit doigt !!!
Cela permet des recadrages et des agrandissements geants ou la limite est la lumiere est sa longueur d'onde, avec des objectifs microscope au top bien sur .

 

 

... où as tu trouvé ça... :ph34r: :D :D


  • 0

#11 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 03 décembre 2015 - 07:47

Re bonjour Claude

 Après une nuit de réflexion :) , tu as aussi raison, ces pixels supplémentaires (cet agrandissemnt à vide) permettent effectivement d'arandir un détail (en le recadrant), ce qui ne veut pas dire qu'on voit "plus" de détails... mais on les voit "mieux" !

 C'est cette différence entre "plus" et "mieux" qui fait que cette discution sur les millions de pixels revient périodiquement...

Amicalement

Cosinus... qui ne reparlera plus de pixels !


  • 0

#12 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 03 décembre 2015 - 08:09

Désolé, je ne peux qu'apporter une information courte, faute de temps ce matin : le critère "de Tryphon" (je plaisante, c'est un critère bien connu) de deux échantillons par point à observer permet de discerner tout juste les détails, mais apporte une forte dégradation à la fonction de transfert de modulation. Si l'on ne veut pas trop dégrader l'image que l'on observe par le capteur, il faut au moins 6 à 8 échantillons par point de résolution. Les nombres de pixels calculés doivent donc être multipliés par au moins 3 ou 4.

 

Amicalement


  • 0

#13 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 12:06

Bonjour Jérôme,

 

Je sens que tu va nous entraîner dans le labyrinthe des formules mathématiques, théorème de Shannon,convolution, FTM

, et au final tu auras forcément raison, puisque ne pouvant plus te suivre sur ce terrain.

Ne te fatigues pas, je ne suis pas assez intelligent pour les comprendre.

 

shannon.JPG

 

Bien entendu tu peux développer, mais je doute que cela puisse me convaincre.

Plus simplement on peut dire que c'est l'objectif qui fabrique une image avec tous les détails dont il est capable.

L'oculaire n'est là uniquement pour permettre à l’œil d'échantillonner l'image de manière optimale pour lui.

 

Et chacun sait que tous les yeux ne se ressemblent pas, il n'y a qu'à voir la variété de verres de lunettes pour ceux qui ont une vue corrigée.

Il n'est donc pas absurde, contrairement à l'idée reçue, d'utiliser des oculaires différents en fonction de la vue de chacun, et l'emploi d'un oculaire de 15 X ne me choque pas du tout.

Par contre que ce soit avec un oculaire de 10 X ou de 15 X, l’œil bien associé , verra les mêmes détails.

 

Mais dans les deux cas, si on sur-échantillonne l'image , c'est à dire si on dépasse le 10 X pour un œil bien adapté au 10 X ou 15 X dans l'autre cas, cela n'apporte qu'une image diluée sans contraste et parfois même avec moins de détails car ceux-ci sont noyés.

 

Il en va de même avec les capteurs.

Si l'on s'en tient à la résolution pour l'exemple 10 X et le critère de Shannon la taille des  cellules du capteur doit être de 6 µ.

Dans le cas du critère de Jérôme, elle sera entre 1,6 et 2.1 µ.

Dans les deux cas, le plus petit détail à résoudre sera le même.

 

Il ne faut surtout pas croire que la résolution du microscope sera de 0.16 µ pour un objectif de 10 X alors qu'elle est de 13 µ dans la réalité.

 

Et pourtant la taille sur l'objet, correspondant à un tel photo site serait bien  de 0.16 µ. 

 

La chaîne  1,3 µ sur l'objet, objectif 10 X, 13 µ sur l'image intermédiaire et photo-site de 1.6 µ ne peut pas être inversée pour aboutir par raisonnement inverse à une résolution de l'objectif 10 X  de 0.16 µ

 

La multiplication de Mega-Pixels aboutit bien à un grandissement à VIDE  sur le cliché à l' ECHELLE UN chaque fois que l'on dépasse la résolution de l'objectif. Cette résolution est indépassable.

 

Je n'en veux pour preuve, et même si le champ était "riquiqui" ( 659 * 494 pixels = 0.3 Mega Pixels) que la Vesta Pro avec  ses photo-sites de 5.6 µm résolvait fort bien les images de tous les objectifs de microscopes.

 

Amicalement.

 

 

 

 


  • 0

#14 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 03 décembre 2015 - 01:09

B) ... allez, pour le plaisir ...


Il ne faut surtout pas croire que la résolution du microscope sera de 0.16 µ pour un objectif de 10 X alors qu'elle est de 13 µ dans la réalité.
 

 Jérôme n'a jamais dis qu'il allait augmenter la résolution du microscope, il a simplement dit que pour reproduire l'image intermédiaire, sans la dégrader, deux photosites par point de résolution ne suffisaient pas... il est bien évident que le point de résolution sur cette image intermédiaire reste à 13 µ !
La multiplication des pixels ne servirait ici qu'à améliorer la reproduction de l'image... pas à en modifier la résolution.
Amicalement.


Modifié par savant Cosinus, 03 décembre 2015 - 01:10 .

  • 0

#15 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 01:29

Tu as raison, il n'a jamais dit çà, mais tellement de gens le pensent !

<<deux photosites par point de résolution ne suffisaient pas...>>
Je veux bien qu'on l'affirme mais cela ne le prouve pas.

Donc à priori, d'après toi, plus on augmente la résolution du capteur et plus la restitution de l'image sera bonne ?

C'est en fait une erreur de raisonnement. On considère une image intermédiaire comme un paysage.
Sur un paysage, et avec un APN, plus on augmente la résolution du capteur et plus l'image est bonne , c'est exact.
Sauf qu'il y a une limite à cette progression: c'est quand on atteint les limites de l'objectif.
Dans le cas du microscope, on travaille déjà à la limite de l'objectif et obligatoirement le raisonnement ne peut pas se prolonger au-delà de cette limite.

Il faut donc changer de raisonnement.

Amicalement.


  • 0

#16 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 03 décembre 2015 - 02:51

Donc à priori, d'après toi, plus on augmente la résolution du capteur et plus la restitution de l'image sera bonne ?

 

... non, d'après Jérôme, B) et il nous parle seulement de multiplier par 3 ou 4 au lieu de deux, mais je le laisse nous expliquer, je n'ai aucune compétence (et je vais sûrement avoir du mal à suivre  -_- ).

Amicalement


  • 0

#17 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 04:58

Hello !

 

Si je suis le raisonnement, il suffirait de multiplier les capteurs élémentaires pour augmenter la qualité de l'image.

Cela signifie en même temps qu'il faudrait réduire d'autant leur taille.

Mais pour capter quoi ?

 

S'il y avait quelque chose à capter en deçà du plus petit détail de l'image intermédiaire, il suffirait d'un oculaire plus puissant, voire d'un microscope complet pour dépasser cette limite infranchissable. Or augmenter la résolution du capteur revient à çà.

 

De plus un photo-récepteur électronique n'est pas une lentille, il ne forme aucune image, il ne "voit" rien, il ne fait qu'enregistrer une variation d'intensité lumineuse sur une surface (arbitrairement) donnée.

Le photo-récepteur produit une information. Mais une information ne signifie pas qu'elle se rapporte à un point d'une  image .

L'erreur est de croire que plus on collectera d'informations, plus l'image sera nette.

 

Si nous diminuions non pas  de 3 ou 4 fois mais de de dizaines de fois la taille des photo-sites nous ne les transformerions pas pour autant en sondes locales. Je ne pense pas qu'une image intermédiaire se comporte comme une onde évanescente ou que l'on puisse y relever un effet tunnel. On reste dans le domaine des champs lointains et de la limite de Rayleigh .

 

Amicalement.


  • 0

#18 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 03 décembre 2015 - 05:43

Ce n'est pas moi qui ai sorti des formules ^_^ !

 

Très simplement, si l'on observe une mire formée de barres noires et blanches, celles qui servent à mesurer la fonction de transfert de modulation, plus la fréquence spatiale de la mire est élevée (façon complexe de dire que les barres sont plus serrées), plus le contraste décroît. On atteint la limite de résolution de l'observation quand le contraste résiduel est d'environ 2%, c'est à dire à peine perceptible. Si l'on veut observer une mire avec un bon contraste, il faut utiliser un appareil dont la résolution est bien meilleure que la résolution limite.

Le critère de Tryphon-Nyquist correspond à une limite de résolution, ce qui veut dire que la modulation est perceptible, mais il ne donne pas le contraste résiduel.
Les formules de la diffraction (à supposer que l'objectif du microscope soit limité par la diffraction) donnent une résolution limite pour l'objectif. Si on ne veut pas dégrader l'image du microscope, il faut l'observer avec un appareil qui a une résolution bien meilleure (3-4 fois comme je le disais), pas pour trouver des détails qui n'existent pas, mais tout simplement pour ne pas ajouter une dégradation supplémentaire.

 

Amicalement


  • 0

#19 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Reptile

  • Membre Modérateur
  • 689 messages

Posté 03 décembre 2015 - 06:30

Bonjour,

 

Suite à cette intéressante discussion je voulais faire quelques remarques:

 

Tout d' abord je reprends l' exemple de Typhon dans le tableau pour l' objectif x10 ON 0,25 avec un champ de 18 mm de diamètre:

 

- la résolution calculée est de 1,3 µm je suppose que la formule suivante a été utilisée (0,61 x lambda) / ON avec lambda= environ 0,53 mm

- le resel calculé est de 13 µm , bon c' est la résolution x par le grossissement 10

- le nombre de resels dans le  champ; je suppose que la formule utilisée est calcul de la surface du champ 9 x 9 x pi soit 254 mm² le tout divisé par 13² soit un peu plus de 1505000.

Pour la suite je vais arrondir à 1,5 million.

 

Ceci étant dit voici mes remarques sur cette base de 1,5 million:

 

1) On peut tenir compte aussi de la plus petite longueur d' onde observable soit 0,4 mm on passe alors à une résolution de 13 µm à 9,8 µm soit 1,987 million de resel.

2) On peut tenir compte du fait que elle capteur utilisé n' ai pas rond mais rectangulaire (rapport 4/3) dans le meilleur des cas donc pour faire correspondre  le cercle du champ du microscope avec la géométrie du capteur on arrive à 2,5 millions.

3) Avec la technologie actuelle des capteurs qui possèdent une matrice de Bayer il faut 4 photosites pour faire un pixel de couleur (au dématriçage les autres pixels sont recalculés) on arrive à 10 millions de pixels;

4) Je rejoins Jérôme pour le critère d' échantillonnage d' autant plus que l' oeil est sensible au contraste j' ai lu quelque part qu' il fallait échantillonner avec un facteur d' au moins 3 au lieu de 2.

5) Il faut tenir compte aussi du grossissement du projectif (si il y en a)

6) Si on a "trop de pixels sur le capteur" on peut faire du binning c' est à dire rassembler par logiciel les pixels par 2 ou plus pour faire un super pixel.

 

Tout cela pour dire que ce n' est pas si simple; Je rejoins également la remarque de Pierre concernant la dynamique des capteurs et la maîtrise du bruit.

Enfin je préfère raisonner avec la fréquence spatiale voir le lien suivant:

http://www.optique-i...Contenu_14.html

 

Cordialement,

JL


  • 0

#20 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 07:53

Bonjour Jean-Luc,

 

Merci pour ta réponse.

Pour la plus petite longueur d'onde observable, c'est du monochromatique et cela ne correspond pas à notre pratique de la microscopie.

Pour ce qui est de ton lien, j'avoue que je n'y ai pas compris grand chose (je ne peux pas passer une heure sur chaque recherche sur internet , les journées ne sont pas assez longues) mais j'ai noté la référence au théorème de Shannon qui dit :

<supérieure au double de l'écart entre les fréquences minimale et maximale qu'il contient.>>

Je note que la fréquence est supérieure au double, c'est un peu vague, mais supérieur au double cela commence à 2.0000001 et cela n'a pas de fin, ce qui est absurde ! Et j'aimerais bien avoir une fourchette et ce qui peut la justifier !

Je suis donc prêt à accepter toute démonstration.

Par contre pour le raisonnement sur les capteurs couleur, je ne suis pas d'accord !

 

une matrice de Bayer il faut 4 photosites pour faire un pixel de couleur

Pas d'accord du tout. La couleur de chaque pixel est certes fabriquée à partir de 4 pixels adjacents, mais le nombre de photo-sites du capteur reste le même, leur taille aussi et la résolution spatiale du capteur la même. La résolution du capteur reste donnée par la taille du photo-site.
Dans ton interprétation, les photo-sites seraient 4 fois plus gros que ce qu'ils sont réellement !

La seule perte, en couleur, est due à l'absorption par le filtre pas en résolution .

Ta remarque sur la surface de l'image intermédiaire est très pertinente.
J'ai calculé le nombre "réel" de resel délivrés par le microscope.
Le problème de la forme du capteur est un autre problème qui tient de la quadrature du cercle. Personnellement je préfère un champ rond qu'un champ rectangulaire.

Le problème de l'adaptateur de champ est aussi un autre problème essentiellement lié à la taille des capteurs dont il faut bien entendu tenir compte.
Bien entendu la taille du resel projeté sur le capteur change avec le grossissement de l'adaptateur.

Pour la dynamique et le bruit (rapport S/B) je pense toujours que c'est sans importance en microscopie on a toujours la possibilité de donner plus de lumière.

 

Enfin je préfère raisonner avec la fréquence spatiale voir le lien suivant:


Alors discutons-en !

@ Jérôme : Je suis partant pour expérimenter la MTF .
Si tu as des propositions pour la fabrication d'un banc, j'en suis.

Amicalement.


  • 0

#21 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 03 décembre 2015 - 08:14

:( ... pardon de revenir à l'origine du post, mais tout ceci n'est-il pas "relativisé" par le fait qu'à l'arrivée l'écran n'a que 2 million de points... n'y-a t-il pas disproportion entre les pixels du départ et ceux de l'arrivée...?

Autrement dit, nos écrans d'ordinateur ne gachent - ils pas tout ?


  • 0

#22 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 08:27

Non ! Je crois que j'ai répondu.

 

Amicalement.

 

Mais je peux le refaire...


  • 0

#23 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 03 décembre 2015 - 08:46

La résolution effective d'un CCD couleur est une question intéressante. Je ne pense pas qu'elle soit aussi bonne que celle d'un CCD "noir et blanc" à géométrie identique.

 

Si beaucoup de caméras professionnelles ont 3 CCD "noir et blanc" précédés de filtres dichroïques, ce n'est pas pour rien, c'est pour avoir la pleine résolution dans chaque couleur.

 

Concernant la MTF, j'ai fabriqué, il y a longtemps, un banc pour tester des caméras IR. Ce n'est pas simple et le budget nécessaire n'était pas celui d'un particulier !

 

Concernant des appareils photo, ça doit pouvoir se faire.

 

Concernant des objectifs de microscope, je n'ai pratiquement pas d'idée sur la façon d'un fabriquer un. Une difficulté majeure : on ne peut probablement pas fabriquer de mires de contraste 1 aux dimensions nécessaires. Les diatomées sont de bonne mires, mais de contraste inconnu. Il doit y avoir des astuces. On doit pouvoir trouver, mais ici encore, je ne suis pas sûr qu'il n'y ait pas d'impossibilité budgétaire. Je vais creuser la question.

 

Pour les histoires de résolution de CCD pour capter l'image du microscope mon intervention se résume en une remarque de bon sens : il faut que le CCD soit (bien) "meilleur" que ce qu'on veut observer pour ne pas rajouter de dégradation au contraste.



@ Cosinus

 

L'écran d'ordinateur ne gâche quelque chose que si tu veux tout voir en même temps. Tu as le choix entre image globale, sous-échantillonée, ou la vision d'une zone à pleine résolution. Ce n'est pas si mal...

 

En cassant ta tirelire :(, ou en attaquant une bijouterie :ph34r:,  tu peux acheter un écran de 6 Mpixels et l'ordinateur qui sait le piloter, tu sous-échantillonera moins... ;)

 

Amicalement


  • 0

#24 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 03 décembre 2015 - 09:15

Nous reparlerons probablement des capteurs couleur Vs monochromes, mais pour les tri-CCD ce n'est pas un problème de résolution, mais de rendu des couleurs.

Les cameras couleurs respectaient un format vidéo déterminé,  et les moniteurs ou TV également il n'y avait pas dans un standard des cameras ayant plus de résolution spatiale que d'autres.

 

<<il faut que le CCD soit (bien) "meilleur" que ce qu'on veut observer pour ne pas rajouter de dégradation au contraste.>>

 

Je suis bien d'accord, mais comment on chiffre le "bien meilleur" ?

 

Pour le banc, c'est bien sûr pour les objectifs de microscope que je suis intéressé. 

Il n'y a rien d'extraordinaire dedans et je ne pense pas que le prix de revient soit énorme.

Le problème est peut-être celui de la mire, mais cela me rappelle le test de Ronchi et la manière de fabriquer des mires.

 

Quel serait le cahier des charges?

 

Amicalement.


  • 0

#25 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 04 décembre 2015 - 10:36

Bonjour à tous,

 

Mais comme je le disais, un capteur de 4.000.000 de pixels de 18 mm. x 18 mm. (pour couvrir le champ de l'image intermédiaire)...ça n'existe pas !

 

Tout à fait ! Et cette partie n'a pas encore été discutée , mais fait bien évidemment partie de la suite qui aboutira au final  à l'affichage sur l'écran. 

 

Ce que j'ai exposé est un début  de raisonnement en commun.

Je voudrais dire que c'est la première fois depuis la naissance du forum, qu'une discussion de ce niveau, se déroule aussi cordialement.

Le but n'est pas d'imposer, mais de partager et le confronter des points de vue différents.

 

Tout ce que je dis peut, bien évidemment, être remis en question par des faits nouveaux.

Rien n'est figé. Aucune hypothèse n'est ridicule et se planter est, non pas une honte, mais un considérable enrichissement.

 

L'union fait la force dit le dicton.

Je dirais l'union, la mise en commun, des moyens intellectuels des uns et des autres, fera la force et la qualité du forum.

 

Amicalement.


  • 0

#26 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 04 décembre 2015 - 12:25

Citation

Mais comme je le disais, un capteur de 4.000.000 de pixels de 18 mm. x 18 mm. (pour couvrir le champ de l'image intermédiaire)...ça n'existe pas !

 

... actuellement sur le marché il existe des grands capteurs sans trop "de millions de pixels"...

 - Sony Alpha 7S II , format 24x36, 12 Mpx ... cher !

 - Olympus et Panasonic , format 4/3", 16 Mpx


  • 0

#27 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 04 décembre 2015 - 01:34

Bonjour Cosinus,

 

Merci pour l'info.

..

. actuellement sur le marché il existe des grands capteurs sans trop "de millions de pixels"...

Si tu augmentes la taille du capteur sans augmenter le nombre de sites, cela revient à augmenter la taille de ces sites.

Le problème n'est pas de savoir combien il y a  de sites , mais quelle est leur taille.

Le fait d'avoir beaucoup de capteurs n'est pas une tare ! 
 

Si les capteurs sont "grands", il faut qu'ils aient beaucoup de cellules, pour que celles-ci soient petites.

Mais avant tout, ce qui importe, c'est de savoir combien il faut de cellules pour un "pixel" résolu, c'est à dire un resel.?

 

Ni trop, ni pas assez oui mais combien?

 

 

- Sony Alpha 7S II , format 24x36, 12 Mpx ... cher !

 

 

 Image stabilisée 5 axes ... Super !

 

C'est un appareil photo , fait pour faire avant tout des photos "normales" pas des micro-photos !

Plein de trucs qui ne servent à rien : reconnaissance des visages. J'imagine les paramécies encadrées et suivies ! 

Avec un système expert derrière, l'appareil photo nous dira si c'est un colpode ou un rotifère.

 

Plus sérieusement je me demande si une "camera" dédiée à la microscopie ne serait pas plus adaptée?

 

 

Amicalement.


  • 0

#28 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 04 décembre 2015 - 02:47

Je suis donc allé voir du côté des cameras dédiées et sur le site Olympus.

 

http://www.olympus-i.../sc100/overview

 

J'ai trouvé une camera qui va nous faire avancer dans la quête du critère d’échantillonnage.

 

La SC 100 possède des photo-sites de 1.7 µ et la notice indique clairement que cette camera atteint la résolution théorique pour un objectif UIS2 de 5X !

 

mpln5x_objective_lens.jpg

 

Il suffit donc faire un petit calcul.

 

G : 5 X ON: 0.1 FN : 20 

Le capteur :

1/2.3 "  CMOS  couleur

10.6 mpixels  3840 x 2748 1.7 µ

 

 

capteur.JPG

 

 

 

Résolution :  3.41 µ ( pour lambda 0.56 µ)

Resel : 17.01 µ ( 17 µ çà ira.)

 

Comme le diamètre de l'image intermédiaire est de 20 mm  à 26.5 mm  (Je ne sais pas à quel objectif 5 X fait allusion la notice), il faut un réducteur de .

 

20 mm / 4.62  = 4.32 X

26.5 mm / 4.62 =  5.7 X

 

Le resel au niveau du capteur aura donc une taille comprise entre 3.93 µ et 2.98 µ

Le critère pour l’échantillonnage est donc de 2.3 X à  1.75 X

 

Si je ne me suis pas trompé dans mes calculs, (je fais plusieurs choses à la fois) le facteur d'échantillonnage est de 2 X .

 

Amicalement.


  • 0

#29 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 04 décembre 2015 - 07:28

... Olympus SC 100 à 10.6 Mpx, on approche des 15 Mpx de Claude et de Jérôme... B) !


  • 0

#30 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 04 décembre 2015 - 08:11

Dans l'exemple de Tryphon, considérer 4,62 mm comme la dimension à utiliser veut dire que le cercle du champ du microcope s'inscrit entièrement dans le capteur. C'est une option "grand champ". On pourrait aussi considérer que la diagonale du capteur doit correspondre au diamètre du champ, c'est alors 7,7 mm à prendre  en compte au lieu de 4,62, d'où un meilleur échantillonnage. Enfin si on prend un projectif  0,5x (valeur courante), on aura encore un meilleur échantillonnage, au détriment du champ, bien sûr.

 

Quand j'ai reçu ma caméra Tucsen 16 Mpixels, qui je pense utilise un capteur de dimensions voisines du SC 100, j'ai commencé à faire des essais, mais j'ai rencontré plusieurs difficultés :

- surcharge de travail en pleine saison de champignons

- difficulté de mettre en évidence une impression visuelle (plus ou moins bonne qualité d'image)

- logiciel Tucsen à peine compatible avec mon Mac

 

de plus je suis en ce moment à l'étranger, loin de mes microscopes, donc je ne pourrai contribuer expérimentalement que dans quelque temps.

 

Un point annexe à prendre en compte dans la discussion est l'existence et la qualité du projectif. Ci-dessus, Tryphon a calculé qu'il faudrait un projectif de grossissement 1/4,32 ou 1/5,7, soit aux environs de 0,2x. Ca ne se trouve pas partout !

Dans la qualité d'image finale, la qualité du projectif intervient (aberrations, FTM). Seuls des essais de comparaison entre grand capteur (donc plutôt grands photosites) sans projectif et petit capteur-petits photosites avec projectif pourraient donner des résultats réels.

 

Avec tout le matériel existant chez les participants au forum, on pourrait faire plein d'essais comparatifs. Il faudrait se mettre d'accord sur un ou quelques objets que tout le monde pourrait observer et échanger les résultats.

 

Amicalement


  • 0

#31 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 04 décembre 2015 - 10:08

Bonjour Jérôme,

 

L'exemple que j'ai trouvé est un exemple réel .

C'est la meilleure camera Olympus, montée sur les microscopes Olympus.

Je n'ai pas vu le résultat, mais je ne peux supposer que c'est la hauteur du rectangle qui est utilisée et non le diamètre, pour éviter tout vignetage, mais cela ne change pas grand chose.

Pour l'adaptateur, je suppose également qu'Olympus en a conçu un parfaitement adapté au capteur .

Simplement avec cet exemple Olympus affirme que la résolution théorique d'un objectif de 5 X (de qualité) est atteinte.

Nous sommes donc dans la configuration idéale.

De plus si la résolution théorique est atteinte, elle le sera aussi pour les objectifs plus forts qui ont un resel plus gros !

 

Olympus.JPG

C'est une camera adaptée à un microscope prestigieux.

 

Cameras.JPG

Les autres cameras n'atteignent pas la résolution théorique de l'objectif, et pourtant elles équipent des microscopes prestigieux.

 

Je pense donc que c'est un bon exemple pour apprécier le taux d'échantillonnage optimal.

Amicalement.

 

.


.. Olympus SC 100 à 10.6 Mpx, on approche des 15 Mpx de Claude et de Jérôme... B) !

Le nombre de MegaPixel n'est pas un critère valable à lui tout seul.

Il faut  comparer la taille du site du capteur avec la taille du resel une fois la taille du champ image adaptée à la taille du capteur et lui appliquer un facteur d'échantillonnage. Il semblerait qu'il soit de 2.

 

Amicalement.


  • 0

#32 scrophulaire

scrophulaire

    Procaryote

  • Membre confirmé
  • Pip
  • 135 messages

Posté 04 décembre 2015 - 10:12

Bonjour à tous,

 

Je pense que vous vous tromper dans votre raisonnement car vous ne prenez pas en compte le fonctionnement des photosites et les algorithmes.

 

Faisons un dessin :

 

Fichier joint  20151204084950425.pdf   381,86 Ko   59 téléchargement(s)

 

 

 

 

 

 

Principe de fonctionnement : le photosite capte la lumière est la transforme en tension qui varie selon l’intensité lumineuse. Ensuite grâce à des algorithmes le signale est transformé en pixel. Le pixel sera en blanc (100%) en noir (0%) niveau de gris pour les autres. Raisonnement en noir et blanc

 

 

Feuille 1 : Si les photosites sont égale ou supérieur à la plus petit résolution du microscope nous avons selon les positions du point :

 

-1 point image = photosite alors la tension est maximal soit 100% pas de problème = 1 pixel

-Si le photosite est à 56% il est très difficile de savoir s’il provient de 2 ou 3 points images aucun algorithme ne peut le traduire, nous avons que des niveaux de gris avec perte de contraste. il y a donc perte de point image.

 

Feuille 2 : Quel que soit la forme des photosites nous ne réglons pas le problème. Je pense que les images pixel sont réalisées avec des interpolations et des équations de probabilité (maximun de vraisemblance) avec perte d’information.

 

Feuille 3 : Il faut que les photosites soit plus petit que les points images pour ne pas perdre l’information. Il semblerait qu’un ration 1/3 soit le minimum.

 

Pour transformer les photosites en pixel il suffit de compter les 100% attenant (3 ou 4) pour définir un point image et donc un pixel. Les autres sont utilisés en niveau de gris

 

 

Donc pour moi, le nombre de photosite nécessaire doit être :

 

Resel calculé est de 13µm

Taille de photosite 13/3=4.33 disons 4 soit un aire de 16 µm ²

La surface du champ pour 18mm 9x9xpi 254mm² soit 254 000 000 µm ²

254000000/16 = 15 millions de photosites

Comme il nous faut 3 à 4 photosite à 100% alors le nombre de pixel est :

Entre 5.3 et 4 millions de pixel disons 5.5 millions

 

Cordialement,

 

 


  • 0

#33 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 04 décembre 2015 - 11:05

Bonjour scrophulaire,

 

Je ne comprends pas ton raisonnement, mais pour moi, il y a des erreurs.

(Mais toutes les hypothèses sont intéressantes.)

Peu importe comment fonctionne un capteur électronique.(1)

Il est constitué d'une matrice de points .

L'image qu'il reçoit est donc décomposée en autant de pixels que de sites (Photo-sites).

Qu'il soit éclairé ou pas, un site produira un pixel.

Je ne vois pas comment il pourrait manquer des pixels qu niveau de l'image finale.

Un site mort produira lui aussi un pixel dans l'image finale. Ce pixel ne comprendra aucune information, mais contribuera à reconstituer l'image finale.

Tu mélanges le bichrome ( N&B ) et le niveau de gris.

 

Le fonctionnement d'un capteur en bichomie est un fonctionnement en tout ou rien c'est à dire en deux bits. C'est une image binaire.

Le fonctionnement en niveau de gris est possible grâce à la conversion analogique/digitale. (utilisant plus de 2 bits).

Si on choisit une conversion A/D sur 8 bits, on obtiendra une image en 256 niveaux de gris (2^8)

Si on convertit sur 10  bits on aura 1024 niveaux de gris.

La camera ci dessus en 12 bits fonctionne  donc en  4K bits soit 4096 niveaux de gris .

 

La matrice de Bayer et les interpolations vont reconstituer les couleurs de chaque pixel à partir des pixels adjacents sans rien changer à la résolution qui est déterminée par la taille des sites et les dimensions de l'image par le nombre de pixels en X et Y.

 

Je crois que tu parles d'autre chose que de la résolution spatiale, mais je ne vois pas bien quoi.

 

Amicalement.

 

(1) Par contre, c'est très intéressant de savoir comment travaille un capteur.


  • 0

#34 scrophulaire

scrophulaire

    Procaryote

  • Membre confirmé
  • Pip
  • 135 messages

Posté 05 décembre 2015 - 08:27

Bonjour,
Un photosite n'est pas égale à un pixel. En fait, dans mon exemple trois photosite à 100 % est transformé en un pixel blanc et trois photosite 60% seront transformés en un pixel gris. De proche en proche nous pouvons bien distinguer les points image contrairement au 1er exemple ou nous avons que des niveaux de gris puisque les points tombent sur plusieurs photo sites. Donc au final, pour que nous ayons l'ensemble des points images former par le microscope, il faut que les photosite soit au moins 3fois plus petit que la résolution du microscope. Ainsi, nous aurons le point image du microscope couvert par 9 photosite qui donnera 3 pixel sur la photo.
Amicalement.
  • 0

#35 scrophulaire

scrophulaire

    Procaryote

  • Membre confirmé
  • Pip
  • 135 messages

Posté 05 décembre 2015 - 08:37

Situation:
Le nombre de MegaPixel n'est pas un critère valable à lui tout seul.
Il faut comparer la taille du site du capteur avec la taille du resel une fois la taille du champ image adaptée à la taille du capteur et lui appliquer un facteur d'échantillonnage. Il semblerait qu'il soit de 2.


Je suis entièrement d'accord avec ce que tu dis. Il faut au moins qu'il soit 3x plus petit. Ensuite, c'est l algorithme qui va transformer les photosite en pixel ( 3 ). La résolution bien évidement sera meilleur si nous avons un rapport de 4. Au delà de 8 fois plus petit je pense que sa n'apporte plus rien à l' image final.
  • 0

#36 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 05 décembre 2015 - 09:28

Bonjour scrophulaire,

 

D'abord merci pour ton apport qui contribue à mieux comprendre le problème.

Remettons tout en perspective.

 

La question primordiale est de savoir, à l’instar  de la formation des pixels, comment ceux-ci, puisqu'ils sont immatériels (ou presque) retraduits en information lumineuse visibles par notre œil et interprétable par notre cerveau.

 

Il faut donc dans un premier temps comprendre comment on obtient un pixel .

Ce faisant, une nouvelle question se pose, celle de l'échantillonnage. 

Combien de sites faut-il pour former un seul pixel.?

 

J'ai bien relu ta copie, ton explication est intéressante, mais a mon avis, il y a des points de frottement pour ne pas dire de grippage.

 

Pour bien comprendre ton propos que tu as très généreusement illustré, il faudrait que ces illustrations soient accessibles en même temps que les explications associées.

C'est pourquoi je pense qu'un pdf, n'est pas adapté à ce but, aussi je vais le re publier sous forme JPG accompagné du texte.

 

Cela fera l'objet du message suivant, après quoi , je dirais ce que j'en pense.

 

Amicalement.


  • 0

#37 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 05 décembre 2015 - 10:07

scrophulaire, (le) 04 Déc 2015 - 10:12 PM, a écrit :

 

Principe de fonctionnement : le photosite capte la lumière est la transforme en tension qui varie selon l’intensité lumineuse. Ensuite grâce à des algorithmes le signale est transformé en pixel. Le pixel sera en blanc (100%) en noir (0%) niveau de gris pour les autres. Raisonnement en noir et blanc


Feuille 1 : Si les photosites sont égale ou supérieur à la plus petit résolution du microscope nous avons selon les positions du point :


Page-1.jpg

-1 point image = photosite alors la tension est maximal soit 100% pas de problème = 1 pixel
-Si le photosite est à 56% il est très difficile de savoir s’il provient de 2 ou 3 points images aucun algorithme ne peut le traduire, nous avons que des niveaux de gris avec perte de contraste. il y a donc perte de point image.

Feuille 2 : Quel que soit la forme des photosites nous ne réglons pas le problème. Je pense que les images pixel sont réalisées avec des interpolations et des équations de probabilité (maximun de vraisemblance) avec perte d’information.

 

Page-2.jpg

 

Feuille 3 : Il faut que les photosites soit plus petit que les points images pour ne pas perdre l’information. Il semblerait qu’un ration 1/3 soit le minimum.

 

Page-3.jpg

 


Pour transformer les photosites en pixel il suffit de compter les 100% attenant (3 ou 4) pour définir un point image et donc un pixel. Les autres sont utilisés en niveau de gris


Donc pour moi, le nombre de photosite nécessaire doit être :

Resel calculé est de 13µm
Taille de photosite 13/3=4.33 disons 4 soit un aire de 16 µm ²
La surface du champ pour 18mm 9x9xpi 254mm² soit 254 000 000 µm ²
254000000/16 = 15 millions de photosites
Comme il nous faut 3 à 4 photosite à 100% alors le nombre de pixel est :
Entre 5.3 et 4 millions de pixel disons 5.5 millions

 

 

 

 


  • 0

#38 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 05 décembre 2015 - 10:10

Spoiler
..

Dans cet exposé, (encore merci d'avoir autant bossé) il y a de vraies questions et quelques petites erreurs.

Ce ne sont pas des algorithmes ou de probabilités qui décident qu'il y a pixel ou pas, mais il y a systématiquement un pixel associé à chaque cellule (= photo-site) .

De manière simplifiée voici les grandes étapes.

A- Etape 1 : Une cellule (photo-voltaïque) est un entonnoir qui reçoit des photons et qui les transforme en courant d'électrons .
Le courant fourni est proportionnel à la quantité de lumière reçue.

B- Etape 2 : Ce courant électrique est numérisé grâce à un CAN (Convertisseur Analogique/ Numérique)
D'une tension électrique reçue sort une valeur numérique, c'est cela le pixel.

Une matrice de 16 cellules (capteur numérique de 4 lignes et 4 colonnes par exemple) sortira une image composée d'une matrice de 4 lignes de 4 pixels)
Notez au passage que le CAN est un échantillonneur et de ce fait a lui même une résolution propre.

Dans le cas où le CAN choisi aurait une résolution de 8 bits, un courant électrique en entrée située dans une fourchette précise délivrera 256 valeurs binaires différentes possibles en sortie (de 0 à 255) .
Si le courant d'entrée varie dans les limites de 0 à 5 Volts par exemple le 0 volt aura la valeur binaire 0 et le 5 volt aura la valeur 255
le 2.5 Volt aura la valeur 128. C'est ce que l'on appelle des niveaux de gris.

Comme je le disais précédemment, une cellule morte (par exemple grillée) aura une valeur figée à zéro et ne variera jamais, mais elle constitue tout de même un point image, sans information utile certes mais présente dans la matrice et deviendra un pixel mort.

Ce que tu appelles raisonnement noir et blanc n'accepte que DEUX valeurs binaires ZÉRO ou UN.
Le capteur utiliserait un CAN de résolution 2 bits.

Voici la différence entre N&B et niveaux de gris.
Il n'existe aucun compromis entre les deux modes .
Bien entendu les valeurs 0 et 255 du codage en niveaux de gris correspondent aux deux états haut et bas du codage 2 bits !
 

TT-2 bits.jpg

Tryphon codé sur 2 bits = Noir & Blanc


TT-8 bits.jpg

Tryphon codé sur 8 bits = 256 niveaux de gris


TT-6037.jpg

Tryphon codé en RVB 8 bits pour chaque canal.


 


  • 0

#39 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 06 décembre 2015 - 04:59

Bonsoir,

d'abord un petit commentaire sur les CCD : idéalement chaque photon crée un électron qui est stocké dans un puits de potentiel associé au photodétecteur élémentaire. Dans la phase de lecture du CCD, des électrodes déversent les électrons stockés de chaque puits d'une ligne dans la ligne voisine. La ligne finale est elle même lue dans le sens perpendiculaire, ce qui fait que la matrice est lue séquentiellement et que le signal de sortie arrive, pixel par pixel , ligne après ligne sur le convertisseur A/D. Le nombre de photons statistiquement nécessaire pour créer un électron est le "rendement quantique" du détecteur.

 

Le problème de détecter une tache d'Airy avec un CCD est un problème d'astronome, pas de microscopiste et les solutions ne sont pas forcément les mêmes.

Cas de détection d'un point lumineux : il faut savoir qu'entre les photosites, il y a des bandes aveugles (plus ou moins, selon la technologie) et que d'autre part on est souvent confronté à un problème de sensibilité. L'écartèlement de la tache d'Airy entre 4 détecteurs (moins d'un quart de l'énergie sur chaque détecteur) fait terriblement baisser le signal reçu par rapport à la tache centrée sur un détecteur. On va donc diminuer la taille des détecteurs, pour que quand la tache balaye la matrice, il y ait peu de modulation du signal. Comme le bruit du détecteur, à technologie identique, baisse comme la dimension du détecteur, on ne perd pas trop vite de rapport S/B.

 

En microscopie, 1) on n'a pas de problème de niveau de signal (sauf en fluorescence), 2) on regarde des images et pas un point lumineux, il vaut mieux regarder ce que donne une mire de FTM projetée sur la matrice CCD. A faibles fréquences spatiales, le CCD va voir des barres alternativement noires et blanches. Pas de problème. A grande fréquence spatiale (près de la limite de résolution) le signal optique est une sorte de sinusoïde (ou cosinusoïde ;) ) de très faible modulation d'amplitude (quelques %) autour du gris. Le problème est représenté sur le schéma suivant :

Sans titre.png

 

On peut maintenant chercher à savoir combien de photosites par cycle sont nécessaires pour que le signal de sortie ressemble à une sinusoïde. C'est à dire qu'on n'a pas trop dégradé le signal. Il est clair que plus il y a de pixels, meilleure sera la restitution de la courbe. C'est ce que j'exprimais en disant que le but n'est pas de créer de l'information, mais de ne pas dégrader l'information existante. En pratique, avec 8 échantillons par cycle le résultat ressemble à quelque chose; mais avec 4 il y a une forte dégradation du signal.

 

Amicalement


  • 0

#40 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 06 décembre 2015 - 06:24

Bonjour,

Toujours pas d'accord avec ta théorie du 8 cellules pour un pixel.
Je viens de relire un bouquin :

Fondamentaux d'optique

et

d'imagerie numérique

à l'usage des microscopistes

Christian Cibert


où il est clairement dit page 149 :
"la limite de Nyquist indique que la fréquence la plus petite nécessaire à l'échantillonnage complet d'un phénomène périodique (continu ou discret) est égal à 2 fois (2.3 fois en fait) la fréquence du signal à analyser."

Je n'ai jamais lu nulle part qu'il devait être égal à 8 .

Personnellement je ne pense pas qu'il y ait une "diffraction astronomique" et une "diffraction microscopique".
Si on veut séparer deux étoiles, on cherchera à former deux disques d' Airy qui soient bien séparés, et dans le cas positif on aura deux magnifiques disques d'Airy.

Rien n'empêche de produire et mesurer un disque d'Airy avec son microscope .

Si l'on prend un objet microscopique comme une cellule, chaque point de l'image sera là aussi, non pas un point mais une tâche de diffraction comme c'est le cas avec une surface planétaire.

Le disque d'Airy, mesure la diffraction d'une optique dans sa représentation la plus pure, quel que soit l'instrument d'optique.

 

Je peux me tromper, mais il me semble que l'on mélange deux phénomènes.

L'un est le phénomène dit Aliasing : il suffit de diminuer la taille de la cellule pour diminuer le crénelage et ceci autant de fois que l'on veut jusqu'à atteindre la limite de diffraction et là ce n'est plus possible.

L'autre est l'échantillonnage d'un signal , quand celui-ci est associé à la limite de diffraction. La diminution de la taille des cellules ne permettra jamais de franchir la limite de diffraction , ce ne serait plus une limite.

C'est bien une limite, et la résolution du capteur ne va jamais permettre de dépasser la résolution de l'objectif. En tout cas si c'était le cas, aucun bénéfice ne pourrait en être tiré.

 

Amicalement;

 


  • 0

#41 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 06 décembre 2015 - 07:22

La limite de Nyquist est au sens de la transformée de Fourier. En échantillonnant un signal à une certaine fréquence, ou poura mesurer le spectre du signal jusqu'à cette fréquence divisée par 2,3. Le problème qui nous intéresse est voisin, mais différent. On a une image et on cherche à savoir comment capter et restituer cette image avec un minimum de déformation (perte de signal). Pour cela il faut que la FTM de l'appareil d'observation ne dégrade pas la FTM du microscope. Il ne s'agit pas d'avoir une fréquence de coupure de l'appareil d'observation équivalente à celle du microscope.

 

Il n'y a évidemment pas de diffractions astronomique et microscopique. Il y a que les objets que l'on regarde ne sont pas les mêmes et que les qualités recherchées ne sont pas les mêmes. Ce qui donne la meilleure idée de l'observation d'une image c'est la FTM et pour l'observation d'objets ponctuels, le pouvoir de séparation.

 

Le pouvoir de séparation de deux points n'est pas le fait que les taches d'Airy soient séparées, mais qu'il y ait un léger affaiblissement perceptible entre deux sommets de points voisins.

 

Dans le dessin suivant, le croquis du milieu représente deux points séparés au sens du critère de Rayleigh :

raylfg01.jpg

 

On remarquera que le sommet des deux courbes est analoque à la sinusoïde dont je parlais précédemment. Si l'on veut une bonne image, il faut que le CCD enregistre cette sinusoïde sans la dégrader. Ce n'est pas le même problème que de faire la transformée de Fourier du signal pour trouver que cette fréquence existe.

 

Il y a une trentaine d'années, quand les CCD sont apparus sous forme industrielle (on travaillait à l'époque avec des CCD monochromes 256 x 256 pixels...) mon équipe et moi nous sommes posés exactement tous ces problèmes, théoriques et pratiques. Ca me rappelle ma jeunesse...

Amicalement


  • 0

#42 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 07 décembre 2015 - 10:12

Bonjour,

 

Très intéressant tout çà, mais parlons nous des mêmes choses?

La diffraction est une altération de l'onde lumineuse qui apparaît quand la lumière passe par une ouverture.

Plus l'ouverture est petite au regard de la longueur d'onde et plus le phénomène de diffraction est important.

Cette diffraction s'étudie expérimentalement après quoi on peut en tirer des formules mathématiques qui peuvent être améliorées, simplifiées ce qui amène à d'autres observations plus précises .

Ainsi fonctionne la science, par un va et vient incessant entre la théorie et l'expérimentation.

 

La diffraction peut être étudiée en faisant passer de la lumière entre des fentes étroites et en rapprochant ces fentes, on peut étudier les figures de diffractions produites et en tirer des enseignements.

Mais la diffraction peut être obtenue en faisant passer la lumière au travers de trous de différentes formes.

Ainsi on peut étudier la diffraction produite par des "pupilles" (trous) circulaires, ce qui est le cas de la diffraction dans la-plupart des instruments d'optique.

Toutefois certains instruments basés sur des prismes peuvent avoir des ouvertures rectangulaires.

 

Dans le cas d'un diaphragme (pupille) circulaire de très petite taille, nous obtenons une figure d' Airy bien connue , constituée d'une tâche centrale entourée d'anneaux de différentes intensités.

 

Cette tâche et ces anneaux peuvent être soit mesurés (pratique), soit calculés (théorie).

C'est en partant de ces mesures ou ces calculs que l'on peut déterminer la résolution d'un instrument.

Nous définissons donc la résolution d'un instrument d'optique comme la capacité de séparer deux détails (deux disques d' Airy) .

Mais tout repose dans cette définition sur ce que l'on entend par séparer !

 

Résolu.png

 

Officiellement : "Deux objets sont séparés (résolus) lorsque dans leur figure de diffraction, le maximum central de l'une correspond, ou coïncide, avec le premier minimum nul de l'autre."

Autrement dit le plus petit détail individualisé d'une image produite par un instrument d'optique à ouverture circulaire correspond à la distance entre le centre de la figure et le premier anneau noir et donc au rayon du premier anneau noir de la tâche d'Airy.

 

A priori, pas besoin de FTM .

 

Voici la page d'explication sur le site Microscopies.com que j'avais faite il y a bien des années.

 

 

R-2.JPG

 

 

Vous savez que le pouvoir séparateur d'un microscope dépend  uniquement de l'ON de l'objectif utilisé et de la longueur d'onde de la lumière utilisée. selon la formule bien connue : 

 

ON.JPG

 

Mais, savez-vous d'où vient le fameux O.61 ? (Un cadeau à celui qui trouve en 48 heures !)

 

 

Amicalement.

 

 


  • 0

#43 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 07 décembre 2015 - 04:23

Le 0,61 n'est pas très mystérieux : il correspond au premier zéro de la fonction de Bessel d'ordre 1 : J1(x), sachant que la transformée de Fourier d'un disque est J1(x)/x.

 

Le pouvoir séparateur maximum d'un objectif est limité par la diffraction correspondant à son ouverture numérique, mais la plupart du temps le pouvoir séparateur est bien plus mauvais à cause des aberrations de cet objectif. Bien peu sont limités par la diffraction (les apochromatiques des grandes marques), les autres sont limités par leurs aberrations.

 

La définition usuelle de la séparation que tu indiques " le maximum d'une tache coïncide avec le premier minimum nul de sa voisine" est celle de la figure de droite de Françon et non pas celle de ta figure N°3. Ca correspond aussi à la figure centrale du dessin que j'avais envoyé.

 

Là nous sommes tout à fait d'accord, mais le problème est au-delà : comment échantillonner cette figure de diffraction avec un CCD sans la dégrader. Pour répondre à cette question, voir mon précédent message.

 

Bien amicalement


  • 0

#44 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 07 décembre 2015 - 04:49

Non justement, je ne pense pas , c'est bien la N°2 : Le maximum , c'est à dire le bord de la tâche centrale, coïncide avec le premier anneau noir.

est celle de la figure de droite de Françon et non pas celle de ta figure N°3

Et donc la moitié de 3.832/Pi ( = 0.61 ) correspond bien au premier anneau noir, c'est à dire le premier minimum de la figure d' Airy.
Le fait d'avoir choisi le premier anneau, correspond bien à une réalité , voir mon illustration 3D couleur (j'ai fait fort ce jour là!)
Toutefois, certains constructeurs prennent la valeur de 0.5. Mais à mon avis (qui ne pèse pas bien lourd) c'est un tantinet arbitraire et cela gonfle un peu la performance de leurs optiques.
J'avais d'ailleurs inclus ce facteur de 0.5 dans une petite calculette qui donnait la taille du photo-site requis pour une configuration Objectif +Condenseur donnée.
 

Zero5.JPG

Je suis d'accord avec toi, , les défauts de l'optique, mais aussi le degré d'incohérence de la lumière et sa nature polychromatique tirent la résolution théorique vers le bas , mais cela donne quand même une idée de la limite que l'on ne peut pas dépasser.
Et l'on s’aperçoit qu'avec certains artifices d'éclairage certains microscopistes atteignent cette limite.

Je suis moi aussi d'accord : " comment échantillonner cette figure de diffraction avec un CCD sans la dégrader.?"
Pour moi, c'est 2.3, jusqu'à preuve du contraire.

Alors on le construit quand ce banc FTM ?

Amicalement.

Pour Cosinus : j'avais prévu le calcul jusqu'au moniteur ! Mais je ne l'ai jamais fait car entre temps les moniteurs ont changé et ne travaillent pas de la même manière. Maintenant a priori, c'est une cellule d'affichage pour un pixel, en monochrome bien sûr. Le problème de la couleur, que ce soit à la prise de vue comme à la restitution, complique sérieusement les calculs.


  • 0

#45 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 07 décembre 2015 - 04:56

:unsure: :unsure: :unsure: :( ! je savais que j'aurais du mal à suivre... B) !

 Mais toutefois j'ai compris qu'il était très difficile d'être objectif et rigoureux dans le choix d'un capteur, à mon niveau, presbyte et daltonien, pour examiner des clichés sur mon écran de PC.

 Mais je ne vous lacherai pas encore,Jérôme en particulier, pourrais tu nous montrer des clichés d'un même objet réalisés avec tes caméras 3 Mpx et 15 Mpx sous forme de deux "crops" à 100% ? Ce sera sûrement très subjectif mais correspondra à l'usage recherché...

 Après, j'arrête -_-

Amicalement et merci

Cosinus.


  • 0

#46 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 07 décembre 2015 - 04:58

J'ai fait un petit ajout à mon message précédent.


  • 0

#47 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 07 décembre 2015 - 05:45

Rectificatif: En fait la définition "officielle" correspond bien  à l'image de droite de Françon.

Mais tout le monde peut constater que c'est l'image de gauche qui est totalement résolue.

 

Ici ce sont des étoiles et on peut supposer qu'elles sont sphériques. Dans ce cas elles sont "séparées" c'est à dire qu'il y a en fait deux étoiles distinctes.

Mais en microscopie par exemple ou s'il s'agissait de planètes et non d'étoiles, rien ne dit que nous ne regarderions pas un objet patatoïde  et non deux objets partiellement circulaires.

Pour moi donc ne sont séparés deux objets dont les tâches centrales de leur disque d'Airy ne se touchent pas .

 

Amicalement.


  • 0

#48 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 07 décembre 2015 - 05:58

Quand on dit "le maximum d'une tache coïncide avec le premier minimum nul de sa voisine", le maximum c'est le sommet du pic. En regardant bien la figure de Françon de droite, tu verras que le maximum d'une courbe coïncide avec le minimum de la courbe voisine. On considère qu'on peut les séparer s'il y a une petit minimum entre les deux pics.

 

Les figures de Tryphon sont très esthétiques, mais elles tronçonnent les surfaces par un plan horizontal, coupant ainsi toute la dynamique. Les lobes secondaires devraient être beaucoup plus bas que le lobe central et on voit pas le petit minimum qui doit exister entre les deux pics de sa figure 2 qui représente la limite de résolution.

 

Je suis actuellement en Grèce, pour des raisons familiales pas très gaies, sans matériel.

 

Dès mon retour, je vais essayer de donner satisfaction à Cosinus. Quand j'ai reçu ma nouvelle caméra, j'ai fait rapidement des essais sur un micromètre, mais les différences ne sont pas très significatives car ce n'est pas un objet exigeant en terme de résolution.

 

Faute de banc de FTM, je vais utiliser des diatomées, car c'est ce qui se rapproche le plus d'une mire de FTM, avec des défauts : ce n'est pas opaque et transparent, mais plus ou moins transparent et de plus ce n'est pas plat. Quand on est à la limite de résolution à l'oeil d'une diatomée, on est dans de bonnes conditions pour tester le rendu de la caméra.

 

Si on pouvait se mettre d'accord sur une ou quelques diatomées faciles à se procurer, plusieurs membres du forum pourraient tester le rendu de leur caméra en commentant sur une plus ou moins grande différence avec l'observation à l'oeil. Il ne s'agirait pas de savoir qui a le meilleur microscope, mais de savoir dans quel mesure leur installation photographique reproduit fidèlement ce qu'ils observent.

 

Amicalement



La définition "officielle" correspond à la limite de la possibilité d'affirmer qu'il y a deux objets et non pas un seul. C'est la limite de résolution. De même, pour la FTM, la fréquence spatiale de coupure correspond à la possibilité de discerner une modulation de contraste à peine perceptible.

 

Dans les deux cas il est beaucoup plus confortable de ne pas travailler à la limite.

 

Amicalement


  • 0

#49 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 038 messages

Posté 07 décembre 2015 - 06:34

<limite de la possibilité d'affirmer qu'il y a deux objets et non pas un seul. C'est la limite de résolution.>>

Tout à fait d'accord !
C'était la préoccupation des astronomes, de savoir si l'objet observé qui apparaissait à certains un petit peu "ovale" était une seule étoile ou bien deux étoiles séparées parfois par de longues distances et que l'éloignement ou la perspective réunissait.
Mais comme dit précédemment, les objets observés étaient supposés sphériques.
Donc à partir du moment où l'ovale commençait à former le début d'un étranglement central, on pouvait en conclure que nous avions affaire à deux étoiles .
Le même raisonnement ne peut pas s'appliquer à des objets dont on n'a aucune idée de la forme. Dans ce cas, on ne peut se prononcer que si les objets sont réellement séparés, c'est à dire que leur périmètre présentent une solution de continuité. (Oh comme je me mets à bien parler! :) ).
Cela ne vous rappelle-t'il pas au début de division d'un protiste? Dès qu'on voit un début d'étranglement, on peut supposer que c'est un début de division.

Αμίκαλεμέντ.


  • 0

#50 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 08 décembre 2015 - 09:25

Tout à fait d'accord aussi,

 

mais il est rare qu'en microscopie on cherche à se prononcer sur la séparation d'objets.

 

Une image est un ensemble de traits et de surfaces, de fréquences spatiales variées. De même qu'on peut analyser un son par transformée de Fourier qui va donner le spectre du son (décomposition en fréquences), on peut analyser les fréquences spatiales d'une image. La FTM (fonction de transfert de modulation) exprime la façon dont ces fréquences spatiales sont plus ou moins dégradées par passage dans un instrument d'optique. Ca ne prend pas en compte que la diffraction, mais l'ensemble des causes de dégradation du signal; par exemple, de mauvais traitements anti-reflets vont baisser le contraste, indépendamment de tout problème de résolution.

 

La FTM est un outil mathématique, théorique et expérimental difficile à manipuler, mais qui est quand même la façon la plus objective d'exprimer la qualité (et les défauts) d'un instrument d'optique utilisé en imagerie.

 

 

Introduction à la mesure de la fonction de transfert de modulation (FTM)

 

 

La fonction de transfert de modulation est une courbe exprimant le contraste résiduel d'une mire de contraste 1, observée à travers un instrument d'optique, en fonction de la fréquence spatiale de cette mire.

Les mires sont typiquement des barres alternativement noires et blanches.

La méthode de mesure consiste à observer de telles mires dont les barres sont plus ou moins écartées et à mesurer le contraste en sortie de l'instrument d'optique.

C'est très simple en principe, mais pas simple en pratique, comme toute métrologie :

- il faut des mires de fort contraste; une solution consiste à utiliser une plaque métallique percée de trous rectangulaires, éclairée par l'arrière. De simples barres noires et blanches comme pourrait dessiner une imprimante ne conviennent pas car le noir ne l'est jamais vraiment (noir). En infrarouge, on place les plaques percées devant un corps noir, mais il faut les refroidir sinon le corps noir les chauffe.  En microscopie, il faudrait creuser des fentes de largeur bien inférieure au micron dans un matériau assez épais pour être parfaitement opaque...

- il faut que la mire soit placée à la distance correspondant à l'utilisation habituelle de l'instrument optique. Pour un appareil photo, sauf grands téléobjectifs, une grande pièce suffit et on peut observer directement les mires. Pour le microscope le problème de distance ne se pose pas, bien sûr. Pour les téléobjectifs et les télescopes, il faut que les mires soient à l'infini. Pour cela on utilise un collimateur. Un collimateur est un objectif utilisé "à l'envers" : la mire est placée au foyer du collimateur, qui en projette l'image à l'infini. L'instrument optique testé va regarder les mires projetées à l'infini. On voit tout de suite le problème : le collimateur étant un appareil optique a lui-même une FTM qui va se superposer à celle de l'appareil étudié. Deux solutions :

- le collimateur a une excellente qualité optique et est utilisé dans une configuration où sa FTM est proche de 1; on peut alors négliger sa contribution.

- on a mesuré sa FTM et on la déduit du résultat final.

- si l'instrument optique étudié possède son propre capteur, il est relativement simple de mesurer le contraste sur le signal de sortie (pour les pellicules photos, on utilisait un microdensitomètre pour mesurer le contraste de la pellicule). Pour mesurer la FTM d'un objectif seul, il faut un appareil pour mesurer le contraste de l'image créée, avec deux problèmes à résoudre : la linéarité de l'appareil de mesure (étalonnage nécessaire) et le fait que la FTM de l'appareil de mesure ne contribue pas à fausser la mesure : problématique identique à celle du collimateur.

 

Le problème se complique du fait que la FTM dépend de la distance de l'objet observé (cas des appareils photo, mais pas des télescopes et microscopes qui travaillent à distance fixe) et que la mesure doit être faite en divers points du champ, avec des orientations différentes des barres (pour savoir s'il y a de l'astigmatisme). La FTM dépend évidemment de la longueur d'onde de travail. On peut faire une FTM en lumière "blanche" ou plusieurs à des longueurs d'onde différentes. Tout ça ne change rien au problème de la mesure proprement dite, mais peut obliger à procéder à de nombreuses mesures pour cerner les problèmes potentiels (aberrations, transmission du contraste).

 

Quand on a tracé les courbes de FTM, on peut les comparer à la FTM d'un instrument uniquement limité par la diffraction pour savoir de combien on s'en éloigne, détecter diverses aberrations et comparer différents objectifs, par exemple.

 

Nota : on distingue la FTM et la FTC (fonction de transfert de contraste). Dans une mesure de FTM, la mire observée a une intensité sinusoïdale (encore plus difficile à réaliser), dans la FTC, la mire est noire et blanche. C'est ce que j'ai décrit ci-dessus.

 

Amicalement


  • 0




N'oubliez pas de consulter notre Magazine en ligne ... MIK-MAG!