Aller au contenu


***** Bienvenue dans le forum MikrOscOpia ! *****
Photo

Post-traitement ou pas ?


  • Veuillez vous connecter pour répondre
113 réponses à ce sujet

#51 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 13 décembre 2018 - 01:05

@Tryphon

Bien sûr qu'il y a des biologistes diatomistes (puisque si les diatomées étaient des végétaux/algues, on parlerait de botanistes et non de biologistes)

qui étudient de près l'impact et la fonction et l'intérêt que représentent les diatomées vivantes. Mais pour les déterminer ils n'utilisent plus seulement les approches

morphologiques des frustules mais tout ce qui leur vaut d'être vivantes: l'environnement direct ou indirect, les conditions de vie ou de survie, leurs histoires (lorsqu'on les étudie dans les tourbes par exemple)

mais encore  l'approche génétique.

Et cela, dans un but, tu l'as dit: de trouver des énergies ! Ce qui relie ces savants aux Producteurs d'énergie et à l'exploitation des ressources par les nantis.

 

Ceux qui s'amusent à photographier des frustules sous tous leurs angles, qui les classent, les comparent ne sont pas des diatomistes 

Ils ne les ont peut-être jamais vues vivantes et de toute façon ils n'ont pas les moyens, en général,  d'en approcher la génétique pour les déterminer efficacement.

Car les classifications aujourd'hui ne se basent plus sur les dimensions des frustules mais exigent la chime et la génétique des individus étudies.

C'est là-dessus que je voulais insister.

Ces "diatomistes" photographes sont des collectionneurs de déchets, aussi esthétiques soient-ils.C'est donc de ceux-là dont je parlais en les montrant du doigt.

SDS


Modifié par solito de solis, 13 décembre 2018 - 01:07 .

  • 0

#52 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Anthropoïde

  • Membre Modérateur
  • 828 messages

Posté 13 décembre 2018 - 01:20

Bonjour JML,

 

Bien dit (écrit) !

 

         Depuis quelques temps déjà je réfléchis (modestement) à faire un guide sur le post traitement des images de microscopie pour un amateur. Selon toi quels critères faudrait-il prendre en compte pour mesurer objectivement "la qualité" d' une image. Je ne parles pas d' une qualité artistique  mais de la qualité intrinsèque d' une image comme résolution, contraste, dynamique etc...... peut-être qu' il n'y a pas qu' un seul critère mais un ensemble de critères.

On pourrait ainsi en partant de l' image de base obtenue par le capteur mesurer les améliorations réalisées.

   Bon j' ai encore beaucoup de questions mais je m' arrête là !

 

cordialement,

JL


  • 0

#53 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 13 décembre 2018 - 04:27

Bonjour JML,

 

Je partage ton opinion.

Le crop/recadrage, ce n'est pas un traitement d'image dans la mesure où il ne redimensionne pas. 

Par contre si on redimensionne en même temps on peut avoir des surprises.

En principe un zoom + n'affecte pas l'information contenue dans l'image. Mais un zoom - détruit de l'information.

 

Amicalement.

 

@SDS

Oui on est d'accord sauf sur des détails.

Pour moi, un biologiste étudie la vie, quel que soit le règne et pas uniquement les animaux.

Ensuite en science fondamentale on va tout étudier même la production d'huiles combustibles par les diatomées ou la captation du carbone .

En principe les sciences fondamentales sont financées par les états. C'est de la recherche désintéressée et à long terme.

Pour les sciences appliquées , comme la couleur verte du dollar ou celle de l'or brillent à l’horizon, des sponsors peuvent intervenir . Comme ce sont des nantis qui financent, ce sont les même qui recevront les bénéfices et détiendront le droit de nous faire payer le fruit de ces recherches.

 

@ Picroformol,

 

La qualité d'une image ne se mesure pas, c'est un critère subjectif (la bonne image ou la mauvaise )

Par contre on peut définir des propriétés utiles à une image, c'est justement l'information (dont je parle tout le temps), qu'elle contient.

L'information brute (le fond) qui peut être modifiée par traitement d'image au bénéfice des formes  pour les renforcer.

On peut la mesurer par la résolution de l'objectif  X par la surface du capteur.

Bien entendu, il faut obtenir le meilleur rendement du microscope ce qui réduit d'autant les post traitements.

en ce qui concerne les "formes", pour le "curieux", c'est une question de goût ou ça plait ou ça plait pas, et pour l'expert, c'est la capacité de l'image à fournir les détails qui l'intéressent. Donc veiller, sous prétexte que cela fait plus joli, à ne pas  détruire des détails significatifs?

Là encore, les techniques de préparation microscopiques (objet du forum) sont là pour fournir à l'imageur, la meilleure image possible (GIGO) ET à la prise de vue, la mise au point sur les détails significatifs va beaucoup aider l'expert.

Mais comme a priori la plupart des microscopistes ne savent pas ce qui pourra intéresser l'expert, je conseille de soigner au maximum la préparation et de post-traiter un minimum.

Une image moins jolie peut être aussi  plus informative.

 

Amicalement.


  • 0

#54 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 13 décembre 2018 - 08:50

@Tryphon

Qui subsidie la science fondamentale dont tu parles ?

Les chercheurs africains ?

Pour le FNRS belgique voici un aperçu

des subsides financements

http://www.fnrs.be/i...inances-du-fnrs

Et les ETATS, surtout l'ETAT belge n'a aucune relation distinguée avec les entreprises qui portent les élus au pouvoir ?

Faut rêver dur...


Modifié par solito de solis, 13 décembre 2018 - 08:55 .

  • 0

#55 JML

JML

    Acide nucléique

  • Membre confirmé
  • 53 messages

Posté 14 décembre 2018 - 07:18

Bonjour

Tout d'abord je voudrais m'excuser car je n'avais pas relu mon post et je me suis rendu compte que le correcteur automatique m'avait joué de mauvais tours.

@ Jean-Luc
Il n'est pas facile de définir une bonne image, mais malgré tout il faut respecter certains points:
Le premier facteur, et il est déterminant, c'est la qualité de l'échantillon. Je ne rentre pas plus dans le détail.
Ensuite il faut se poser la question du choix du meilleur objectif possible, en fonction de 3 paramètres: champ, résolution (ouverture numérique) et profondeur de champ (qui est fonction des 2 précédents). L'optique est toujours une affaire de compromis, et très souvent le meilleur compromis va porter sur l'optimisation de la résolution et le sacrifice de la profondeur de champ, d'autant plus que l'on peut lorsque c'est nécessaire, utiliser une fonction "extended focus" souvent appelée dans ce forum "stacking".
L'acquisition d'image doit se faire en respectant l'échantillonnage de Nyquist (Shannon pour les physiciens), c'est à dire la taille pixel est < résolution théorique de l'objectif / 2,3. Moyennant quoi on est sûr d'exploiter sur l'image la résolution de l'objectif. Il faut être conscient que tous les facteurs environnementaux concourent à une perte de résolution et de contraste, (épaisseur de l'objet, propreté de l'optique, variation des indices, réglage du microscope, ....)
La dynamique de l'image contribue également à la qualité et à la résolution de l'image. On voit parfois des images prises avec des caméras 12 bits, et si on fait l'histogramme de l'image, l'information s'étale sur 3 pu 4 bits. Si on a un moyen d'avoir une meilleure dynamique, c'est bien. Parfois il faut faire avec, et le traitement est une solution. Il faut savoir à quoi va servir l'image: si elle est uniquement qualitative, Rappelons nous que l'œil ne peut discriminer qu'une cinquantaine de niveau de gris. Si elle doit donner lieu à de l'analyse d'image la dynamique est encore plus importante car le soft va exploiter réellement les 4096 niveaux de gris.

Comme tu le vois, tout ca c'est avant le traitement, et c'est presque le plus important.
Ensuite, il y a des outils de traitements et d'analyse.
Si tu es intéressé, on pourra en parler.

Si tu entreprends de faire un guide pour les utilisateurs, bravo !

Bien cordialement
  • 0

#56 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 15 décembre 2018 - 10:32

Bonjour JML,

 

Nous avons pas mal parlé avec jmaffert du facteur d’échantillonnage.

Je disais 2 comme dans la plupart des sources, il disait si je me rappelle bien, bien plus de 2 et tu dis 2.3.

Cela veut dire 2  ou 3 ou bien 2,3 ?

As-tu des arguments pour ce chiffre ?

 

Amicalement.


  • 0

#57 JML

JML

    Acide nucléique

  • Membre confirmé
  • 53 messages

Posté 15 décembre 2018 - 11:16

@ Tryphon

Bonjour

Oui, bien sûr, je prepare la réponse, je dois rechercher une image.
A bientôt
  • 0

#58 JML

JML

    Acide nucléique

  • Membre confirmé
  • 53 messages

Posté 15 décembre 2018 - 03:19

Bonjour

 

Voici à quoi correspond ce facteur d'échantillonnage.

Supposons que l'on observe un objet qui a la même dimension que la résolution théorique d'un objectif. (quels que soient le grandissement le l'ouverture de celui-ci). On va l'appeler "resel" par analogie avec le pixel de l'image.

 

Image1.jpg

 

Supposons maintenant que l'on veuille discriminer deux objets de cette nature

 

Image2.jpg

 

On va admettre qu'il doit y avoir une différence de 25 % entre pic et vallée pour pouvoir séparer les deux objets.

 

Maintenant on regarde ce qui se passe au niveau de l'image.

Si la taille du pixel = resel, on observe une seule structure, on ne peut pas résoudre le système.

 

Image3.jpg

 

Si maintenant la taille du pixel est égale à 1/2 resel (facteur d'échantillonnage de 2), 2 cas se présentent:

  • on n'a pas de chance, le système est centré, les 4 pixels sont équivalents, et on ne résout pas le système,
  • on a de la chance, le système n'est pas symétrique, et on peut, peut-être, discriminer les 2 structures.

Image4.jpg

 

Mais comme il vaut mieux ne pas compter sur la chance, il faut que le facteur d'échantillonnage soit supérieur à 2.

Par exemple, s'il est de 3, quelle que soit la position de l'objet par rapport au capteur, on resout le systeme et on voit les 2 structures.

 

Image5.jpg

 

De façon qualitative on voit donc que ce facteur doit être supérieur à 2.

C'est également ce que donne la résolution du théoreme de Nyquist-Shannon, de façon purement mathématique, et je vous laisse le soin de voir ces belle équations sur le net. Il y a des centaines de presentation, car ce theoreme s'applique à tous types d'échantillonnage, pas seulement à l'optique.

 

Alors pourquoi 2,3 ?

Parce que c'est le facteur qu'ont retenu les physiciens de l'imagerie, notamment par rapport aux algorithmes de déconvolution. C'est le facteur de sécurité par rapport à la continuité de l'information.

 

Notons au passage que c'est aussi le facteur que l'on doit appliquer dans le cadre de l'acquisition d'un stack en z pour calculer l'intervalle entre les plans, de manière à assurer une reconstruction 3d correcte. La résolution axiale n'est pas de même nature que la latérale (on est lié au carré de l'ON)

 

Image6.jpg

 

Voici la visualisation d'une PSF qui permet de mesurer la résolution axiale, et donc de calculer l'intervalle entre chaque plan d'acquisition.

C'est l'équivalent de la tache d'Airy dans le plan x,y.

 

J'espère avoir répondu

 

Bien cordialement


  • 0

#59 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 15 décembre 2018 - 04:21

Oui, je suis d'accord avec les définitions.

 

Cependant ma question portait sur le 0.3 après le 2.

Pourquoi pas 0.4 ou 0.5.

Il faudrait peut-être dire supérieur à 2 avec un minimum de 0.3  ?

Mais que se passe-t'il si on prend un facteur de 4 ?

Meilleure définition? Non, meilleure dynamique ?

0.3 serait le "minimum syndical" ?

 

J'en reviens au facteur de 2:

Avec "pas de bol" l'objet n'est pas résolu, si on considère que  "les yeux sont trop en face des trous".

C'est purement théorique.

Dans la réalité, tout bouge , surtout au niveau du résel.

Quand on fait un schéma sur du papier on situe la source en en endroit fixe tout comme le résel et  le photon ,unique .

En fait il arrive une avalanche de photons sur l'objet et une avalanche de photons arrivent sur le détecteur.

Je suppose qu'ils ne sont pas tous à la queue leu-leu , bien alignés, et qu'il y en a plus à droite et d'autres plus à gauche, ce qui fait que le "pas de chance" n'existe pas vraiment.

Les ingénieurs ne s'y sont pas trompés, et parfois pour augmenter la résolution, ils font vibrer le capteur .

 

Me trompe-je ?

 

Amicalement.


  • 0

#60 JML

JML

    Acide nucléique

  • Membre confirmé
  • 53 messages

Posté 15 décembre 2018 - 04:52

Re bonjour

Rien n'empêche d'echantillonner davantage, mais c'est pareil que si tu veux observer avec un grossissement de 2000 en microscopie. Tu n'améliores rien c'est un grossissement "inutile". Tu peux utiliser un facteur 4 ou 5, tu n'auras pas plus d'information, mais des fichiers plus lourds. L'important, c'est d'être supérieur à 2. On ne peut pas toujours avoir la souplesse de choix, il faudrait avoir un zoom,. Il ne faut pas oublier la fonction binning avec certains capteurs. En exploitant tous les facteurs, il est nécessaire et suffisant d'être entre 2 et 3.

On peut travailler sur du matériel fixé, et là on ne peut pas dire que tout bouge. Ensuite, je suis d'accord, c'est l'objet qui est déterminant. Mais pour poser un modèle il faut se mettre dans des conditions théoriques "d'école", Considérer l'objet comme un point-source, ..... je n'ai pas la prétention de apprendre que la microscopie est affaire de compromis.

Je ne connais pas les capteurs vibrants, mais j'ai utilisé des capteurs montés sur piézo, capables de faire des microdeplacements de la valeur d'un demi ou un tiers de pixel. Quand on fait une acquisition, en fait on en fait 2 ou 3 et l'image finale est donnée avec la résolution correspondante. C'est intéressant pour obtenir de la résolution à faible grandissement, ce qui est le plus contraignant. Par exemple avec un objectif 20/0.80. Pour exploiter la résolution de l'objectif, il faut beaucoup de pixels !

Cordialement
  • 0

#61 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Anthropoïde

  • Membre Modérateur
  • 828 messages

Posté 16 décembre 2018 - 09:01

Bonjour,

JML: merci pour ces précisions ; concernant le facteur d' échantillonage je pense que le raisonnement s' applique pour un capteur monochrome. Pour un capteur couleur il faudrait encore appliquer un facteur 2 pour tenir compte du fait que l'on a alors une matrice de Bayer de 4 pixels ?
Cordialement,
JL
  • 0

#62 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 16 décembre 2018 - 10:26

Bonjour JL,

 

Je vais soulever une grosse polémique, mais a mon avis, la couleur ne change pas la résolution de l'image.

L'erreur vient de la confusion entre photo-site et pixel. (Et par la même occasion entre réel et virtuel.)

Tout le monde appelle pixel n'importe quoi, pour ne pas admettre ce qu'est la définition exacte du pixel.

Tant qu'on n'aura pas en tête (en permanence) ce qu'est exactement un pixel, on tombera dans la confusion totale.

Je rappelle donc ce qu'est un pixel.

Un pixel est l'élément (el) de base d'une image numérique (pix) (picture element).

Et il faut rappeler également ce qu'est une image numérique.

L'appellation « image numérique » désigne toute image (dessinicônephotographie…) acquisecrééetraitée et stockée sous forme binaire (Wikipeadia avec lequel je suis d'accord pour une fois)

 

Le pixel, tout comme l'image numérique sont immatériels, virtuels.

 

A partir de là, on peut comprendre qu' un photo-site peut générer un pixel. Et que ce n'est pas un pixel , la cause n'est pas l'effet.

Un capteur de X sur Y photo-sites générera une image de la même taille : X sur Y .

Sa résolution sera la même en niveaux de gris ou en couleur.

Là encore il faut faire la différence entre la résolution et la taille (virtuelle)  du capteur (et donc de l'image numérique)  (1)

La résolution c'est la dimension du photo-site et non le nombre de pixels de l'image. (2)

 

Le nombre de pixels d'une image numérique est donc le même que celui des photo-sites, sa résolution est la même et l'échantillonnage le même en niveaux de gris ou en couleurs.

Vous pouvez vérifier en les comptant.

Çà, ce sont les faits. Mais qu'en est-il au niveau de l'information ?

C'est une autre histoire !

 

Amicalement.

 

(1) La taille réelle se mesure en unités de longueur, tandis que la taille virtuelle l'est en pixels .

Encore faut-il ne pas confondre réel et virtuel...

(2)Les photographes se sont trompés pendant des décennies en parlant de résolution, et quand ils se sont rendu compte de leur confusion, ils ont remplacé résolution par définition; manque de pot, ils commettent maintenant une nouvelle confusion.

La résolution, c'est le plus petit détail et la définition, c'est la netteté des contours liée à la correction chromatique.

Autrefois, les objectifs mal corrigés formaient des images qui ne se superposaient pas exactement et avaient donc des contours mal définis. (d'ou le mot définition)


  • 0

#63 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 16 décembre 2018 - 11:43

Vous êtes vraisemblablement des spécialistes des pixels et des resels et de la définition théorique et de la résolution

Et je dois dire que les informations qui incombent à vos exposés en sont des témoins probants.

Il n'empêche

qu'au niveau de l'amateurisme de la plupart des gens qui utilisent un appareil optique pour regarder et numérique pour enregistrer cela n'est pas toujours très pratique car

 

LE début de ce post parle bien du fait qu'il est difficile de "traduire" ce que l'on voit à l'oculaire en une image qui sera plus ou moins conforme à ce qui a été vu

 

PAR CELUI QUI A OBSERVE et non par un manuel théorique !

Et vous ne tenez vraisemblablement pas compte de l'importance de cet aspect de la question: la subjectivité de l'observateur qui, seul, sait, ce qu'il a vu et donc aussi,

ce qu'il prétend montrer en n'oubliant pas que l'autre, celui qui verra l'objet photographique aura un tout autre réseau de discrimination !

 

L'objectivité est un leurre prépondérant quant il s'agit d'application où l'humain intervient. Elle n'existe pas !

Dès lors, lorsque je vois dans mon oculaire, avec mes deux yeux, un objet, je ne tiens pas compte de mon système visuel PERSONNEL avec ses qualités et ses défauts

et j'imagine trop aisément qu'il serait identique à celui de mon voisin. Ce qui est bien sûr complètement faux.

 

Psychologiquement, nous ne voyons pas les choses comme un détecteur neutre programmé avec des filtres pour sélectionner, mais nous voyons

avec une histoire personnelle, nous voyons avec un conditionnement émotionnel, nous voyons en anticipant ce que nous voulons voir ou tentons de voir,

nous voyons en fonction de nos connaissances, de nos idées et non pas

comme un détecteur contraint.

 

Alors, lorsque j'ai vu quelque chose et que j'ai l'absurde idée de '"partager", je dois nécessairement, sauf si je pêche par fausse humilité en disant que j'aime ce qui est naturel et que je laisse les choses telles qu'elles sont sans intervenir,

apporter à l'image que j'obtiens les modifications qui me permettent de retrouver un petit peu ce que j'ai vu ou du moins et c'est important, la SENSATION que j'ai eue.

Tout cela est un traduction, une interprétation, j'en conviens.

Et l'autre qui regardera aura un regard sur la chose que je lui présente TOUT DIFFERENT du mien, avec ses traductions et ses interprétations, ses anticipations, sa mémoire etc...

 

Accepter cela c'est vivre en consensus logiquement social, puisque la nécessité de communiquer est le problème intime et  profond de la communication.

Et il n'y a aucune règle scientifique qui pourra me prouver que j'ai tort,

et celui qui estimera que j'interprète (non pas moi, ce je est universel) artistiquement ou esthétiquement en m'éloignant de la réalité de la chose perçue

est un ignorant de la nature humaine en ce qui concerne la perception.

 

@Tryphon

 

Autrefois...

Autrefois, Tryphon, c'est comme aujourd'hui,on percevait selon les conditions de perception qui étaient la norme d'alors, le conditionnement et le formatage, l'émotionnalité et l'intentionnalité

d'autrefois.

Ni moins bien, ni mieux !

Mais voir et regarder sont des aspects du prédateur qu'est l'humain.

La microscopie ou la photographie en sont des aspects dérivés.

Il s'agit toujours et encore de faire voir et d'attirer l'attention de l'autre.

En ce sens, nous sommes tout un chacun par ici, voyeur et exhibitionniste.

 

 

amicalement 

 

SDS

SDS


Modifié par solito de solis, 16 décembre 2018 - 11:46 .

  • 0

#64 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 28 décembre 2018 - 06:35

Bonsoir,

 

@JML Je ne discute pas l'exemple que tu cites, mais il ne s'applique pas à la microscopie où l'on observe des images. Il ne s'agit pas comme en astronomie de séparer deux étoiles sur un fond noir, mais de restituer au moyen d'un capteur l'image que l'on observe. La notion essentielle n'est pas le pouvoir de résolution, mais la fonction de transfert de modulation. Nous avons déjà eu de nombreuses discussions sur ce sujet sur ce forum. Je te renvoie à cet exposé : http://forum.mikrosc...vie-son-oeuvre/. Il y en eu d'autres.

 

Cordialement


  • 0

#65 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 28 décembre 2018 - 06:54

Bonsoir,

 

@ Tryphon T Je ne suis pas d'accord avec cette phrase : "Le nombre de pixels d'une image numérique est donc le même que celui des photo-sites, sa résolution est la même et l'échantillonnage le même en niveaux de gris ou en couleurs". Il est évident que si certains photosites sont utilisés pour mesurer une couleur, ils ne sont pas utilisés pour en mesurer une autre. Il y a donc un sous-échantillonnage de l'image pour l'observer à différentes longueurs d'onde. Que le nombre de pixels qui sortent de la caméra soit égal au nombre de photosites est simplement dû à une interpolation "commerciale" pour ne pas baisser le nombre de points de mesure par rapport au nombre de photosites.

 

C'est la raison pour laquelle les caméras professionnelles sont tri-CCD "noir et blanc" avec de bons filtres de couleur dans le chemin optique (prismes à filtres dichroïques). Avec un CCD par couleur, on a réellement la définition géométrique du CCD utilisé et chaque pixel est vraiment trichrome.

 

Amicalement


Bonsoir,

 

@ SdS

Bonsoir,

 

You have never seen a tree, only your knowledge you have about trees.
You see the knowledge, not the tree   
Vous n'avez jamais vu un arbre, mais seulement la connaissance que vous avez des arbres
Vous voyez la connaissance et non l'arbre.
(UG)
 
Paradoxe philosophique éculé, original il y a deux mille ans, qui n'a pas grand'chose à faire sur un forum microscopie/naturalistes.

Modifié par jmaffert, 28 décembre 2018 - 06:52 .

  • 0

#66 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 29 décembre 2018 - 02:54

@à l'éculé

Bonne santé mentale à vos délices 

Libre à chacun d'entretenir ses fantasmes existentiels: tel est le paradoxe.

Exposez-donc ici vos "connaissances"... c'est le lieu même qui convient. 


Modifié par solito de solis, 29 décembre 2018 - 02:56 .

  • 0

#67 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 30 décembre 2018 - 08:14

Capture d’écran 2018-12-30 à 20.12.26.png

 

Et en anglais c'est encore plus chic !


  • 0

#68 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 30 décembre 2018 - 10:01

Féru de références, le vieillard.

Artaud doit vous faire vomir


Modifié par solito de solis, 30 décembre 2018 - 10:02 .

  • 0

#69 pablito

pablito

    Homo sapiens microscopicus

  • Co.Admin
  • 1 499 messages

Posté 30 décembre 2018 - 10:18

On est tous ou on sera tous vieillards. Ou pas.
Mais je ne vois pas ce que cela vient faire dans le débat.
Arthaud me faisait vomir, j’ai le mal de mer.
Artaud... bof
  • 0

#70 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 30 décembre 2018 - 11:09

Rien à ajouter... on n'ajoute pas des perles aux diatomées.


  • 0

#71 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 30 décembre 2018 - 11:26

A tout prendre, je préfère être un vieillard qu'un connard.


  • 0

#72 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 30 décembre 2018 - 11:51

Peut-être n'avez-vous jamais eu le choix entre les deux


Modifié par solito de solis, 31 décembre 2018 - 12:04 .

  • 0

#73 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 31 décembre 2018 - 10:42

Bonjour les Amis(e)s,

 

Je n’insisterais sur les dérapages verbaux, c'est tellement puéril.

Quand on n'a plus d'arguments rationnels , c'est le cerveau reptilien qui parle.

 

@ Tryphon T Je ne suis pas d'accord avec cette phrase : "Le nombre de pixels d'une image numérique est donc le même que celui des photo-sites, sa résolution est la même et l'échantillonnage le même en niveaux de gris ou en couleurs". Il est évident que si certains photosites sont utilisés pour mesurer une couleur, ils ne sont pas utilisés pour en mesurer une autre. Il y a donc un sous-échantillonnage de l'image pour l'observer à différentes longueurs d'onde. 

 

 

Non, pas du tout ! 

Un photosite n'est pas utilisé uniquement pour mesurer une couleur , il donne un POINT repéré sur une grille , qui correspond à un élément réel de l'image avant le capteur.

L'information "couleur" ne se substitue pas à l'information "géométrique", elle s'y rajoute. Le pixel est toujours  présent et comptabilisé en tant qu'élément de l'image

Si à l'origine du signal reçu par un photo-site, il n'y avait "rien" (= pas de signal) aucun point de l'image ne viendrait .

Une image "vide", que ce soit en nuances de gris ou en couleur ne contiendra aucune information géométriques seulement des informations de gris ou de couleurs.

Mais si une information "géométrique" est présente, sur l'image avant le capteur, elle se retrouvera , chaque point étant à sa place sur l'image numérique en nuances de gris ou en couleurs.

 

 

Que le nombre de pixels qui sortent de la caméra soit égal au nombre de photosites est simplement dû à une interpolation "commerciale" pour ne pas baisser le nombre de points de mesure par rapport au nombre de photosites.

 

Pas du tout, du tout .

Le nombre est le même parce qu'on ne retire ou n'ajoute aucune information "géométrique" .

Par contre, c'est le Tri-Capteur qui est une opération commerciale destiné à de prétendus professionnels.

L'image issue de ces capteurs n'est pas 3 plus grande que celle qui serait obtenu avec un capteur unique muni d'une matrice colorée.

Elle n'est pas non plus 3 fois plus résolue que celle d'un seul capteur de même taille .

Soit on fusionne les trois images RVB  en une seule image, par moyen informatique et on retrouve le nombre de pixels nominal.

Soit on regarde de loin l'image formée par des groupes de 3 pixels RVB et c'est la résolution de l'oeil qui fusionne les tri-pixels en un seul et de toute façon la résolution reste inchangée.

 

Pacifiquement.

 

 

 


  • 0

#74 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 31 décembre 2018 - 12:54

Bonjour Tryphon,

 

reprenons cette affaire de capteurs, avec comme exemple une matrice de Bayer :

 

matrice de Bayer.jpg

 

Si l'on observe quelque chose de "blanc" ou "gris", c'est-à-dire ayant un peu toutes les longueurs d'onde, chaque photosite percevra  la partie de l'image correspondante. La résolution géométrique sera intacte. par contre pour des objets colorés, la résolution peut fortement chuter. Avec un objet rouge, la résolution géométrique est divisée par deux dans les deux directions et il y a des lignes non vues.

La suite du traitement consiste à récupérer les informations de 4 photosites pour en faire un "pixel" unique coloré, correspondant à une surface deux fois plus grande que le photosite unique. Ce pixel est redécoupé en quatre pour donner 4 pixels colorés. L'addition des photosites et le découpage ultérieur sont un peu plus complexes que ce que j'ai décrit (filtrage, lissage), mais ça revient au même : la résolution géométrique effective de la matrice couleur est inférieure, en particulier pour des objets colorés, à ce que donne un simple calcul géométrique : ce qui n'a pas été mesuré ne peut pas être restitué.

 

Concernant les caméras tri-CCD, cela donne une amélioration notable, car chaque couleur est mesurée sur tous les photosites. les informations en provenance des trois photosites R, V et B correspondant géométriquement sont utilisées pour former 1 pixel trichrome. Il n'y a pas de sous-échantillonnage et pas de lignes non vues, par exemple. Si l'on prend trois CCD à  1000 x 1000 photosites, on aura une image trichrome de 1 Mpixels, parfaitement échantillonnée.

Si l'on utilise un CCD "couleur" de 1000 x 1000 photosites, il y aura du sous-échantillonnage, en particulier dans le bleu et dans le rouge, mais on aura toujours en sortie, après pas mal de traitements, une image de 1 Mpixels, qui n'aura pas la qualité de la caméra tri-CCD.

 

En utilisant un CCD "couleur" de 2000 x 2000 photosites on devrait retrouver à peu près la même qualité géométrique qu'une tri-CCD de 1000 x 1000.

 

Il y a cependant d'autres facteurs qui jouent au-delà de la géométrie : il faut sérialiser le signal en sortie du CCD et le convertir en numérique. Si l'on a 25 images par seconde, avec une matrice 1000 x 1000, il faut un circuit de sortie et un convertisseur A/D à 25 MHz. Avec la matrice 2000 x 2000, il faut travailler à 100 MHz, ce qui augmente le bruit électronique d'un facteur 2.

Par ailleurs, à optique et champ égaux, un photosite de la caméra 2000 x 2000 recevra quatre fois moins de photons, d'où une matrice moins sensible (2 diaphragmes).

 

Les caméras tri-CCD ont donc d'excellentes raisons d'être nettement supérieures aux systèmes mono CCD. Ce n'est pas un gadget. Il y a un surcoût dû au prisme dichroïque qui complique le chemin optique et sur le fait qu'il faut tripler une partie de l'électronique (avant conversion A/D).

 

Je te rassure, je ne vend pas de caméras tri-CCD :)


  • 0

#75 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 05 janvier 2019 - 06:35

Bonjour Jérôme, tous,

 

Réponse très intéressante, mais qui pose plus de questions qu'elle n'apporte de réponse. 

Toute une série de problèmes pourraient être résolus si je possédais une camera "monochrome" (1) ainsi que son équivalent en couleur.

 

Il existait en astronomie des cameras ToYouCam Pro couleurs , modifiées avec un capteur "monochrome" mais difficile à trouver.

L'idéal serait d'avoir un capteur avec un filtre de Bayer amovible.

Tout le reste est pure théorie.

Le principal problème posé est : est-ce qu'une matrice de Bayer fait perdre de la résolution géométrique ?

Je n'en suis pas sûr sans l'avoir vérifié.

Subsidiairement: Est-ce qu'une tri-CCD fait gagner de la résolution géométrique ?

 

Concernant le dématriçage, il faut dire qu'il n'y a pas UN dématriçage mais des dizaines de recettes différentes (pompeusement appelées algorithmes !) et que toutes ne sont pas identiques.

 

La suite du traitement consiste à récupérer les informations de 4 photosites pour en faire un "pixel" unique coloré, correspondant à une surface deux fois plus grande que le photosite unique. Ce pixel est redécoupé en quatre pour donner 4 pixels colorés.

Je pense que ceci est une interprétation rapide d'un algorithme parmi tant d'autres.

Quatre pixels fusionnés en un seul ferait perdre de la résolution et même si par la suite on redécoupe ce pixel en 4 pixels identiques, cela ne fera pas gagner en résolution.

 Les 4 pixels ne seront jamais vus autrement qu'un seul pixel  4 fois plus grand en surface.

La résolution perdue sera perdue.

Je ne pense pas que dans la réalité, cela marche comme cela.

 

 

Il serait bon également de comparer le capteur électronique avec la rétine humaine 

On pense toujours qu'un capteur est une pâle imitation de ce que fait la nature.

En fait les mêmes principes sont repris.

On peut avoir même l'impression que notre rétine est plus "mal-foutue" que nos capteurs.

 

La taille comparée des photo-sites et des photo-récepteurs serait plutôt à l'avantage des capteurs électroniques en ce qui concerne la résolution.

Dans la rétine, la répartition des "RVB" ne parait pas optimale et surtout , et surtout la présence des premières cellules qui traitent le signal, avant les fibres optiques, sont dans le trajet de la lumière représenté par une flèche rouge.

 

Rétine.jpg

 

4c16cd24dd_50101318_3241-7a8c8cc65b.jpg

 

On peut calculer, avec ces éléments le "rendement en résolution comparé" entre un capteur électronique et l'oeil , connaissant la taille des photo-sites et photorécepteur sachant que le pouvoir séparateur moyen mesuré de l'oeil est d' 1 minute d'angle ( ou 1 mm à 3 mètre).

Et de là on pourrait comparer l'efficacité des algorithmes de reconstitution de l'image en couleurs.

 

Comme on peut le voir, le génie de l' Homme ne fait que reproduire ce qui existe déjà (en fait on a copié le principe de la vision colorée de l'oeil pour fabriquer des capteurs électroniques.

Et même on retrouve l'astuce utilisée par certains animaux sauvages pour augmenter le rendement quantique des capteurs en créant des capteurs rétro-éclairés.

En effet ces animaux ont déjà une membrane réfléchissante derrière les photorécepteurs rétiniens .

 

Amicalement.

 

(1) Bien entendue il s'agit d'une camera à  niveaux de gris, c'est à dire brute, sans filtre coloré. Une camera monochrome, je ne connais pas, et je n'arrive pas à m'imaginer quel pourrait en être son emploi.


  • 0

#76 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 09 janvier 2019 - 11:06

Réponse très intéressante, mais qui pose plus de questions qu'elle n'apporte de réponse.  Quelles questions ?

Toute une série de problèmes pourraient être résolus si je possédais une camera "monochrome" (1) ainsi que son équivalent en couleur.

 Il existait en astronomie des cameras ToYouCam Pro couleurs , modifiées avec un capteur "monochrome" mais difficile à trouver.

L'idéal serait d'avoir un capteur avec un filtre de Bayer amovible.

Tout le reste est pure théorie. Est-ce-à-dire que c’est faux ?

Le principal problème posé est : est-ce qu'une matrice de Bayer fait perdre de la résolution géométrique ? Réponse : oui Voir explication ci-dessous.

Je n'en suis pas sûr sans l'avoir vérifié. C’est facile à vérifier avec un appareil photo couleur et une mire ; on trouve des mires sur Internet. Il faut l’imprimer et l’éclairer de différentes couleur et mesurer la FTM pour ces différentes couleurs. Comparer la qualité de FTM compte tenu de la distance, de la focale de l’objectif et de la taille des photosites.

Subsidiairement: Est-ce qu'une tri-CCD fait gagner de la résolution géométrique ? Gagner par rapport à quoi ? Elle permet d’avoir la résolution qu’on peut calculer compte-tenu de la taille des photosites. Ce qui n’est pas la cas d’une matrice couleur.

 

Concernant le dématriçage, il faut dire qu'il n'y a pas UN dématriçage mais des dizaines de recettes différentes (pompeusement appelées algorithmes !) et que toutes ne sont pas identiques. Certainement

 

Citation

La suite du traitement consiste à récupérer les informations de 4 photosites pour en faire un "pixel" unique coloré, correspondant à une surface deux fois plus grande que le photosite unique. Ce pixel est redécoupé en quatre pour donner 4 pixels colorés.

Je pense que ceci est une interprétation rapide d'un algorithme parmi tant d'autres. C’est ce que j’ai écrit.

Quatre pixels fusionnés en un seul ferait perdre de la résolution et même si par la suite on redécoupe ce pixel en 4 pixels identiques, cela ne fera pas gagner en résolution. Les 4 pixels ne seront jamais vus autrement qu'un seul pixel  4 fois plus grand en surface.

La résolution perdue sera perdue. Exact, c’est bien le problème.

 

Je ne pense pas que dans la réalité, cela marche comme cela. Fais la mesure, tu verras bien.

 Il serait bon également de comparer le capteur électronique avec la rétine humaine . Je ne suis pas anatomiste

 

Explications sur le sous-échantillonage et la perte d’information :

 

Mires.jpg

 

J’ai essayé de rassembler plusieurs informations sur ce croquis. On retrouve la matrice de Bayer, 4 mires bleue, verte, rouge et blanche et deux points. Dans le cas de la mire rouge, placée dans le cas le plus défavorable, je l’admets, cette mire rouge n’est pas vue du tout. Ce serait pareil pour la bleue. Le cas est nettement meilleur pour la verte, car quelle que soit sa position, on la percevrait. Enfin la mire blanche étant vue par tous les détecteurs serait bien échantillonnée.

Si on regarde l’observation de points lumineux, un point rouge (voir vers la gauche de la mire) d’un photosite et demi de diamètre peut ne pas être vu et un point vert d’un photosite de diamètre peut ne pas être vu (sous le point rouge).

De plus on voit que dans le rouge et le bleu, les trois quarts de l’énergie incidente sont perdus, absorbés dans les filtres.

 

Toute cette information qui n’est pas collectée ne peut pas être reconstituée, sinon par interpolation et l’on connaît bien les effets du sous-échantillonnage sur la qualité d’un signal.

 

Cordialement


  • 0

#77 solito de solis

solito de solis

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 728 messages

Posté 09 janvier 2019 - 01:30

@Tryphon

Bien que tout cela soit de la voltige dans le domaine de l'optique, il est sans doute délicat ou inapproprié néanmoins de comparer la rétine et un capteurà photosites

Tu écris même

"On peut avoir même l'impression que notre rétine est plus "mal-foutue" que nos capteurs".

 

Il existe un principe qui s'appelle le Principe d'univariance de Rushton qui stipule qu'au niveau des récepteurs de la rétine, cônes et bâtonnets, il est impossible de savoir

si une variation du signal issu d'un cône isolé correspond à une variété d'intensité lumineuse ou de couleur.  De même les fonctions des neurones intervenant dans la construction des voies

perceptives ne sont pas bien comprises. L'électrophysiologie étant incapable aujourd'hui d'assurer avec impériosité les types de connexions entre les neurones rétiniens

On est très loin d'un "capteur" inorganique. Ce qui caractérise la rétine est une irrégularité dans la distribution des filtres et donc ne peut supporter la comparaison avec la matrice de Bayer. 

Il faudrait envisager des algorithmes qui puissent gérer ces irrégularités qui dépendent directement de la spatialité de la rétine. La réalité de la physiologie rétinienne n'est pas identique à un quelconque modèle. Pour ce, l’état actuel des connaissances qui mêle psychophysique, optique adaptative,  anatomie, électrophysiologie, analyse moléculaire 

ne permet pas de déterminer tous les mécanismes fondamentaux de la vision des couleurs.
Une référence pour la partie "anat" https://www.research...rosci_4_877-886

 

 

SDS


Modifié par solito de solis, 09 janvier 2019 - 02:02 .

  • 0

#78 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 09 janvier 2019 - 02:01

Bonjour,

 

Je disais que tout cela n'est que pure théorie.

Je n'ai pas de capteur monochrome et un filtre de Bayer amovible, donc tout cela reste pour moi, pure théorie.

Théorie parce que quand on fait une expérience, il y a de nombreuses interprétations possibles. tout le monde n'est pas nécessairement d'accord

(voir l'exemple de l' Image Virtuelle)

 

C’est facile à vérifier avec un appareil photo couleur et une mire ; on trouve des mires sur Internet. Il faut l’imprimer et l’éclairer de différentes couleur et mesurer la FTM pour ces différentes couleurs.

 

Je n'ai pas non plus d'appareillage pour faire de la FTM , cela reste donc pour moi de la théorie, jusqu'à preuve du contraire.

 

FTM.JPG

 

Si tu as cela en stock, je veux bien faire l'expérience en attendant, je campe sur mes positions.

 

Amicalement.


  • 0

#79 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 09 janvier 2019 - 03:11

Réponse très intéressante, mais qui pose plus de questions qu'elle n'apporte de réponse.  Quelles questions ?

La première bien sûr est : de quel algo de dématriçage  tu parles ?

Et que fait-il exhaustivement ? ( de la première ligne du programme à la dernière.)

 

Dans le cas de la mire rouge, placée dans le cas le plus défavorable, je l’admets, cette mire rouge n’est pas vue du tout.

Je pense encore que cela est pure spéculation  (Je ne rejette pas les spéculations, mais il faut qu'elles s'accompagnent d'expériences concrètes)

 

Si on considère que chaque couleur peut ne pas être vue,  on pourrait penser qu'un capteur muni d'une telle matrice colorée, dans des cas comme tu dis "défavorables" puisse devenir aveugle et ne capter aucune photo..

Ce serait un comble ! 

Je crois au contraire que les algo de dématriçage peuvent être conçus pour éviter ce genre de cas "défavorables" 

Dans la réalité, j'ai toujours vu des images complètes avec toutes ses couleurs et je crois que l’électronique alliée avec le traitement numérique ne s'en sortent pas trop mal.

 

Pour nous ramener à la microscopie, il faudrait en haute résolution, c'est à dire au niveau du pixel, comparer des capteurs comparables.

  • Un capteur monochrome.
  • Le même capteur avec un filtre de Bayer
  • Le même capteur couleur avec différents algo de dématriçage
  • Le même capteur en mode trois-capteurs.

Il y aurait beaucoup à faire et à dire, surtout si les configurations  ci-dessus sont combinées avec des modulateurs différents.

 

Donc, des questions, il y en a.

Croire que tout est simple, que tout peut se réduire à des formules ou des théories me parait peu réaliste.

J'aurais tendance au départ à trop compliquer avant de revenir à des explications plus simples, mais à l'inverse,  trop simplifier , c'est se priver de beaucoup de découvertes.

 

Citons Tryphon :Celui qui trouve est celui qui cherche là où les autres savent qu'il n'y a rien à trouver. 

 

Je préfère donc me poser des questions.

Amicalement.


  • 0

#80 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 09 janvier 2019 - 03:30

Ce n'est pas la partie la plus importante.

 

Ce qui n'est pas capté ne peut pas être utilisé.
L'utilisation de la matrice de Bayer entraîne un sous-échantillonnage de l'image, différent selon la couleur de cette image, qui fait qu'une partie de l'information n'est pas captée et une partie de l'énergie est perdue dans les filtres.

 

Point n'est besoin d'informatique pour comprendre ça, si ce n'est pour noyer le poisson.


  • 0

#81 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 09 janvier 2019 - 03:54

Réponse très intéressante, mais qui pose plus de questions qu'elle n'apporte de réponse.  Quelles questions ?

La première bien sûr est : de quel algo de dématriçage  tu parles ?

Et que fait-il exhaustivement ? ( de la première ligne du programme à la dernière.)

 

Dans le cas de la mire rouge, placée dans le cas le plus défavorable, je l’admets, cette mire rouge n’est pas vue du tout.

Je pense encore que cela est pure spéculation  (Je ne rejette pas les spéculations, mais il faut qu'elles s'accompagnent d'expériences concrètes)

 

Si on considère que chaque couleur peut ne pas être vue,  on pourrait penser qu'un capteur muni d'une telle matrice colorée, dans des cas comme tu dis "défavorables" puisse devenir aveugle et ne capter aucune photo..

Ce serait un comble ! 

Je crois au contraire que les algo de dématriçage peuvent être conçus pour éviter ce genre de cas "défavorables" 

Dans la réalité, j'ai toujours vu des images complètes avec toutes ses couleurs et je crois que l’électronique alliée avec le traitement numérique ne s'en sortent pas trop mal.

 

Pour nous ramener à la microscopie, il faudrait en haute résolution, c'est à dire au niveau du pixel, comparer des capteurs comparables.

  • Un capteur monochrome.
  • Le même capteur avec un filtre de Bayer
  • Le même capteur couleur avec différents algo de dématriçage
  • Le même capteur en mode trois-capteurs.

Il y aurait beaucoup à faire et à dire, surtout si les configurations  ci-dessus sont combinées avec des modulateurs différents.

 

Donc, des questions, il y en a.

Croire que tout est simple, que tout peut se réduire à des formules ou des théories me parait peu réaliste.

J'aurais tendance au départ à trop compliquer avant de revenir à des explications plus simples, mais à l'inverse,  trop simplifier , c'est se priver de beaucoup de découvertes.

 

Citons Tryphon :Celui qui trouve est celui qui cherche là où les autres savent qu'il n'y a rien à trouver. 

 

Je préfère donc me poser des questions que de croire que tout est dit dans des livres.

 

Amicalement.


  • 0

#82 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 09 janvier 2019 - 04:46

Je te propose de faire une expérience simple, sans banc de mesure professionnel.

 

En utilisant ma calculette à mire (jointe). Tu imprimes des mires sous forme de traits noirs au pas de 1,2,3,... pixels. Ensuite tu poses ton appareil photo sur un pied, tu éclaires ta mire avec ton projecteur vidéo avec différentes couleurs et en blanc et tu prends une photo à chaque fois. Tu verras bien les résultats et si c'est pareil pour les différentes couleurs. Je pense que tu seras déçu par la FTM, mais n'anticipons pas.

 

Pour cette calculette, on rentre les chiffres en noir. Les chiffres en rouge sont calculés. Dans mon cas de calcul, Je considère un appareil de photo avec 12 Mpixels, avec un détecteur pleine taille de 36 mm de longueur, au format 1,5 (donc de 24 mm de largeur). L'objectif a une focale de 50 mm et la mire est à 5 m de l'appareil photo. la projection d'un photosite sur l'écran est de 0,85 mm, ce qui doit être imprimable. Si le CCD ne fait pas 24 x36 mm, attention aux indications de focale sur l'appareil. Il faut bien évidemment rentrer la focale réelle de l'objectif, pas celle d'un "équivalent 24 x36".

 

Ca c'est du concret, pas très compliqué. Il faut faire aussi des mires plus grandes.

 

Problème technique : le logiciel du site m'empêche de joindre le fichier Excel de la calculette à mires.  Y a-t-il une solution ?


  • 0

#83 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 09 janvier 2019 - 05:18

Je te remercie pour tout le mal que tu te donnes, mais désolé, je n'ai pas d'imprimante, c'est pas écologique  :) .

Je n'ai pas de 24/36 non plus.

Mais ce n'est pas grave, pour une fois j'ai compris.

Que les couleurs puissent sur la FTM, le contraste etc, je l'admet.

Mais quelle incidence au niveau de la résolution spatiale ?

C'est la question que je pose sachant que les algo de dématriçage interviennent dans la reconstruction des images et des couleurs.

Et comme on parle dans ce sujet de post-traitement, je pense que l'on peut certainement remédier à pas mal de problèmes de ce genre avec d'autres programmes de traitement.

Dans l'absolu je te concède qu'un tri-capteur doit apporter un meilleur rendu des couleurs avec moins de traitement informatique.

Dans la pratique, verras-t'on mieux une diatomée ?

 

Amicalement.

 

Je peux voir ,si quelqu'un est intéressé, si je peux faire passer tes fichiers Exel (quelle est leur extension ? , (je n'ai pas excel, je préfère programmer des applications que de mettre des formules dans des cases.)


  • 0

#84 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 09 janvier 2019 - 06:00

L'utilité de la calculette était de pouvoir s'adapter aux différents cas de figure. Le fichier fait 12 ko, ce qui n'est pas beaucoup, mais il ne calcule que des règles de trois ! L'extension est .xlsx

 

Pour bien capter une diatomée, comme n'importe quel autre objet, il vaut mieux avoir un échantillonnage de 6 à 7 points par cycle théoriquement résolu par l'objectif pour que la FTM de la caméra ne vienne pas trop dégrader celle de l'objectif et comme on éclaire en général en lumière blanche, le capteur trichrome ne doit pas notablement dégrader la résolution.

 

Amicalement


  • 0

#85 jmp76

jmp76

    Nucléotide

  • Membre confirmé
  • 32 messages

Posté 09 janvier 2019 - 06:40

Bonjour,

 

Tu sembles très perturbé par les algorithmes de dé-matriçage... Il n'y a pas de secrets lourds là-dedans, mais une simple succession de calculs et d'interpolations. La recette est différentes à cause des puissances de calcul disponibles et du temps de calcul imposé. Et de la précision demandée.

On peut décrire 3 phases essentielles:

 

 1- Normalisation des données brutes issues du capteur.  Chaque élément photosensible a ses propres caractéristiques: une efficacité propre (taux de capture des photons et transformation en électrons. Dimension réelle de chaque "puits") et un niveau de noir différent (fuite de courants/électrons)  Lors de la fabrication, il y a mesure du fond noir (les offsets) et des efficacités (gain e-/ph) de chaque 'pixel'

Le calcul de cette phase consiste à lire le pixel, retrancher l'offset. Calculer le gain, et le normaliser.  En sortie de cette phase, chaque pixel correspondra à un même type standard de pixel. Toutes les divergences d'offsets et de gain sont supprimées.

A ce niveau on pourra simplifier en fonction de la puissance de calcul disponible... (Si les offsets sont faibles on pourra les négliger!  De même pour le gain... tout dépend aussi de la technologie utilisée)

 

2- Interpolation des pixels  Il s'agit d'obtenir la meilleure approximation pour les composantes inexistantes. Donc le pixel n'ayant pas de rouge fera l'interpolation avec les 2 ou 4 rouges voisins. De même pour les bleus, ou pour les verts. L'interpolation peut se faire de manière linéaire, ou en polynôme ... plein de choix sont disponibles!  Si la puissance de calcul est là on fera du bicubique (interpolation en polynôme sur X, et Y).   Si la puissance n'est pas là, alors on fera du linéaire dans un sens et du c² dans l'autre ou lin-lin...

 

On voit ici l'intérêt des DSPs qui sont des CPUs spécialisés dans le calcul simple.

A ce niveau on peut donc avoir différentes solutions en fonction de la puissance de calcul disponible.  On peut ajouter dans cette phase un peu de peaking (amélioration de certains contrastes) mais cela peut être dommageable pour la suite.

 

A ce niveau on peut se douter qu'un fichier raw peut être amélioré par certains logiciels si vous utilisez une puissance de calcul beaucoup plus importante. L'interpolation peut être réalisée en bicubique ou mieux, avec un temps de calcul disponible plus grand.

 

3- Suite des calculs: la sortie  Il faut mémoriser le résultat soit en Raw ou en jpg. Le Raw peut utiliser différentes techniques de compression sans pertes -ou pas- . Le jpg se calcul avec plus ou moins de précision. Il faut faire la compression exponentielle d'abord, puis la DCT, l'approximation, la compression ultime....

 

Concernant les interpolations, il faut se rappeler que la vision humaine est moindre dans les bleus et les rouges. En gros la résolution est divisée par 2. Pour cette raison la télévision couleur utilise 4 fois moins de données pour le bleu et pour le rouge. Cela explique qu'il y a 4 fois moins de pixels bleu et rouge.(Pour bien faire il faudrait plus de vert!)

 

Que les interpolations des R et B soient entachées d'approximation n'est pas grave. Il faut aussi se souvenir que le jpg peut aussi diminuer la résolution des R et B... Ce qui conduit à des erreurs de couleur lors des changements de dimensions...

 

Les caméras tri-CCD éliminent qqs approximations, mais à la sortie on aura quand même l'oeil avec 2 fois moins de résolution dans le rouge et dans le bleu... (mais les couleurs pourraient être améliorées...)   Il ne faut pas oublier aussi les triplets (ou x4) des écrans...   Cela rend les choses très compliquées!

 

Pour info: Des capteurs avec des pixels disposés au hasard ont été créé, pour éviter les problèmes d'échantillonnages  (pb de la mire rouge spéciale) et se rapprocher de la rétine.et on finira par avoir aussi des écrans...

 

En conclusion, il n'y a pas de mystère dans le dé-matriçage, mais seulement des implémentations différentes conduites par la puissance de calcul disponible, la qualité du hardware et l'habilité/compétence du programmeur.


  • 0

#86 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 10 janvier 2019 - 10:56

Bonjour jpm76,

 

Merci pour ces longues explications, mais:

 

Tu sembles très perturbé par les algorithmes de dé-matriçage... Il n'y a pas de secrets lourds là-dedans, mais une simple succession de calculs et d'interpolations

 

Je ne suis pas perturbé du tout, mais simplement curieux.

Je demande, car je n'ai pas trouvé l’algorithme d'au moins 1 de ces algorithmes.

Comme beaucoup de personnes en parlent, il devrait y avoir quelqu'un pour en fournir un.

Non, je n'ai pas trouvé.

 

Soit on trouve des généralités: l’auteur ne va pas jusqu'au bout de sa démonstration par manque d'arguments:

 

Dematriçage.JPG

https://www.photogra...on-dematricage/

 

soit on trouve beaucoup de formules, mais toujours pas d'algorithme.

 

Demat2.JPG

 

https://pastel.archi...499252/document

Entre parenthèse, dans une thèse, on corrige les fautes d'orthographe.

 

Si je donne ces deux exemples à un programmeur, je doute qu'il soit capable de pondre un programme de débayerisation !

 

Amicalement.


  • 0

#87 jmp76

jmp76

    Nucléotide

  • Membre confirmé
  • 32 messages

Posté 10 janvier 2019 - 02:14

Bonjour,

 

 

soit on trouve beaucoup de formules, mais toujours pas d'algorithme.

Mais l'algorithme fait partie de la propriété intellectuelle des sociétés. Il n'y a aucune raison de publier cela. (Cela a de la valeur)

 

Pour en trouver il faudrait voir du coté des scientifiques qui programment les caméras des engins spatiaux. Ils vont expliquer pourquoi tel ou tel process.

 

Le principe du jeu est de créer un sur-échantillonnage  sans introduire d'effets négatifs.

Par ex pour simplifier, en 1 dimension: le nouvel échantillon peut être interpolé avec 2 échantillon voisins: c'est le moyennage. Mais on peut aussi faire appel à 4 échantillons voisins: soit moyennage, soit interpolation en x², ou x3 ... tout est possible. Soit par des formules simples (qui offrent de bons résultats visuels)  soit par des calculs compliqués (genre polynômes de Legendre si le programmeurs a de bonnes connaissances en Maths) ou splines. Tout est possible.  Seul le résultat visuel valide le calcul.

En 2 dimensions cela se complique. 4 voisins peuvent se figurer comme une surface 3D. et il faut trouver le centre... 8 voisins etc.  et on peut pondérer les coordonnées des voisins  (1 pour 4, et 0.5 pour les 4 autres)

 

La puissance de calcul limitera les choix. Ainsi que les compétences du programmeur.

 

Cordialement


  • 0

#88 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 10 janvier 2019 - 02:57

Bonjour,

 

Mais l'algorithme fait partie de la propriété intellectuelle des sociétés. Il n'y a aucune raison de publier cela. (Cela a de la valeur)

 

Oui, mais je pense que pour un "doué en math", ce ne doit pas être bien sorcier à reconstituer à partir des documents trouvés ici ou la comme la thèse citée plus haut.

Le problème c'est que personne ne fait l'effort de vulgariser dans le (bon sens)  des notions  que ne comprennent que les mathématiciens pour les mettre à la portée de celui qui a besoin de comprendre plus que de savoir.

Cela doit se résoudre à un algorithme très simple par exemple : je prends le pixel  A1 et j'ajoute à sa valeur actuelle, la valeur des pixels X, Y ou Z.

Ensuite je prends le pixel A2 et je lui ajoute la valeur des pixels X', Y ', et Z ' 

Je recommence jusqu'à ce qu'il n'y ait plus de pixels bruts.

A partir de là un programmeur moyen non seulement peut comprendre, mais aussi juger des résultats en terme de résolution par exemple, dans le cas où des informations disparaîtraient, mais aussi essayer d'améliorer l'algorithme de base .

 

Je me souviens, au tout début des CCD, de Christian Buil, qui avait écrit un bouquin qui donnait, de A à Z les moyens de construire soi même une camera CCD . (Objet assez rare à l'époque) .

N'importe quel bricoleur en électronique et informatique possédait avec ce livre toutes les informations nécessaires pour comprendre le fonctionnement et fabriquer cette camera, ou autre variante.

J'avais décidé d'en construire une pour la placer comme imageur sur un microscope électronique. J'avais pris RDV avec Christian, mais ce RDV n'a pas eu lieu et nos trajectoires ont dévié...

Pour la couleur, il ne parle que de la methode trichromique (3 clichés avec 3 filtres différents) dommage.

 

En fait le dématriçage, ne m'empêche pas de dormir, je n'ai aucun projet dans le domaine, c'était simplement pour essayer de comprendre. Les généralités  sont souvent trop théorique et fortement erronées.

 

Amicalement.


  • 0

#89 Claude Brezisky

Claude Brezisky

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 721 messages

Posté 10 janvier 2019 - 03:18

Bonjour,

Post traitement ou pas c'est le sujet, nous sommes tous en admiration devant les photos de diatomées ou autres organismes, faites en microscopie électronique, je me pose la question comment sont elles réalisées sans parler de la colorisation bien sur ?

Cordialement

Claude


  • 0

#90 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 10 janvier 2019 - 04:23

Bonjour Claude,

 

 je me pose la question comment sont elles réalisées

Comme son nom l'indique, un microscope électronique, utilise les électrons au lieu des photons.

Les capteurs électroniques, qui sont faits pour fonctionner avec de la lumière, ne fonctionnent pas avec les électrons.

On visionne l'image directement sur un écran enduit de phosphore , avec éventuellement l'aide d'une loupe binoculaire.

On utilise également des émulsions photographiques (plaques) ultra-fines (le grain) que l'on dégaze préalablement dans le vide.

Si l'on veut observer sur écran, on utilise soit des tubes vidéo, soit des capteurs électroniques , mais il faut convertir les électrons en photons.

On met donc devant le capteur un scintillateur qui a le même rôle que l'écran au phosphore , il transforme les électrons en photons.

On peut donc observer sur un écran vidéo.

 

Amicalement.


  • 0

#91 jmp76

jmp76

    Nucléotide

  • Membre confirmé
  • 32 messages

Posté 10 janvier 2019 - 04:34

Bonjour,

 

 

microscopie électronique

 

Ben le sujet est simple pour celui qui a de bonnes bases en physique, atomique et électronique...

 

Constatations: Les électrons peuvent être considérés comme des photons (dualité onde-corpuscule) Etant beaucoup plus énergétiques (genre 100KeV au lieu de 1eV en lumière) leur longueur d'onde est 100000 fois plus courte. Les limites de l'optique sont définies par la loi de ??? (j'ai la flemme) qui indique la résolution=ordre de la longueur d'onde. Donc il est possible d'avoir mieux que 0.5 um de précision.

 

Faire un faisceau d'électrons: Simple: enceinte à vide, on chauffe un filament (genre 2000K). Les électrons sont tellement secoués que certains s'échappent dans le vide. Il suffit de les capter!  Ils sont négatifs, on va donc les attirer par une tension positive (anode) Pour avoir un début de faisceau optique, on ne va recueillir que ceux qui passent pas un petit trou. Les électrons se repoussent, il faut donc les re-concentrer. (optique electro-statiques ou magnétiques)

 

Si ce faisceau voyage dans l'air, les électrons vont rencontrer les atomes de l'air et les exciter... puis s'affaiblir. Il faut donc du Vide.

L'échantillon doit donc être dans le vide. Mais il risque d'exploser d'où des techniques de préparation...  Ouvrir la boite à vide pour mettre l'échantillon, la rempli plein d'air. Il faut donc re-pomper...  ou on améliore le compartiment.

 

Pour obtenir une image on va dévier le faisceau pour balayer l'échantillon. Balayage en X, Y avec des rampes triangulaires. Voir le fonctionnement magnétique  des anciennes TV (qui peuvent être considérées comme des accélérateurs de particules!!!) ou électriques des oscilloscopes.

 

Il suffit d'étudier ce qui sort du choc des électrons sur la matière: lumière?, rétrodiffusion?, électrons secondaires, etc. Conduit à différents types de capteurs. Et à chaque moment constituer l'image et suivant X et Y.

 

A tous les niveaux, il y a des pièges et cela demande des spécialistes. Avec l'avancée technique les composants s'améliorent et cela permet de nouvelles techniques encore plus fines. C'est le progrès!

 

Mais tout cela reste à la portée d'un très bon bricoleur  (voir ceux qui ont modifié des vidicons)

 

Cordialement


  • 0

#92 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 10 janvier 2019 - 05:27

Mais tout cela reste à la portée d'un très bon bricoleur  (voir ceux qui ont modifié des vidicons)

 

Très très bons bricoleurs !

Tant qu'il s'agit d'obtenir une image grossie 2 à 3 X , et pleine d'aberrations, cela nécessite déjà un très bon niveau et beaucoup de matériel.

Il faut avoir derrière un labo/atelier très bien équipé.

Après, c'est du travail de professionnels spécialisés.

a loi de ??? (j'ai la flemme)

 

Il s'agit de la formule d' Abbe qui précède celle (plus connue chez les Anglo-saxons ) de Rayleigh,

 

 le sujet est simple

 Simple: enceinte à vide

 Il suffit de les capter!

 

 

J'aime bien ton optimisme.

Pour les enceintes à vide, il faut une sacré bonne enceinte, bien étanche (inox de qualité)  et très bien usinée, et surtout de bons joints.

ensuite il faut deux type de pompes : primaire à palette et secondaire à diffusion d'huile.

Mais aussi des sondes (Pirani et Penning ) et leur électronique associée.

Pour le canon à électrons, la théorie est simple et l'art beaucoup plus difficile.

Tous les éléments, doivent être parfaitement usinés polis et de propreté moléculaire. 

De plus on utilise de la THT (Très Haute Tension) fournie par des alimentations hyper stabilisées.

Idem pour l'alimentation des bobines (lentilles) qui doivent être conçues avec une précision extrême.

 

http://forum.mikrosc...ec-un-tube-crt/

 

 

Dans la vidéo, le bonhomme utilise au départ un châssis de métallisation. Pas mal du boulot est déjà fait.

Ensuite il faut voir le résultat !

Certes, c'est un microscope électronique, mais le résultat est très nettement supérieur avec une bonne loupe à main.

 

Amicalement.


  • 0

#93 Claude Brezisky

Claude Brezisky

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 721 messages

Posté 10 janvier 2019 - 05:56

Bonsoir,

vos réponses ne me satisfont pas, car vous ne parler pas des reliefs qui sont si bien définis, à quelque part il doit bien y avoir des assemblages comme avec les IRM qui ne prennent comme nous que des surfaces planes et les assemblent.

Je ne crois pas que se soit comme la construction de pièces en 3 D avec le fil fondu. 

Cordialement

Claude


  • 0

#94 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 10 janvier 2019 - 09:06

La question n'avais pas été posée.

 

Bon, pour le relief, il faut différencier le Microscope Electronique en Transmission qui est l'équivalent électronique du Microscope Photonique traditionnel.

Le profondeur de champ est très très faible, si faible que pour avoir une mise au point on pratique ce qu'on appelle des "séries focales".

Comme en microscopie photonique classique on voit des coupes optiques du sujet, par transparence.

Il faut donc faire des ultra-coupes d'un centième de micron.

Le Microscope Electronique par Balayage, lui, fonctionne comme la loupe binoculaire. 

Les électrons se réfléchissent sur la surface du sujet on ne voit que  l'aspect extérieur . Comme pour la loupe bino, la profondeur de champ est très importante.

Les images paraissent être en relief.

Il n'y a donc aucun traitement d'image genre stacking! C'est en "relief" que l'on voit les sujets.

 

Amicalement.


  • 0

#95 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Anthropoïde

  • Membre Modérateur
  • 828 messages

Posté 10 janvier 2019 - 10:43

Bonjour,

 

Concernant l' influence de la matrice de Bayer sur le pouvoir de résolution du capteur je suis perplexe et j' hésite entre le raisonnement de Tryphon et celui de Jérôme ?

Comme j' utilise parfois pour la photo au microscope un appareil qui enregistre en fichier RAW ( en fait NEF chez Nikon mais c' est pareil) j' ai regardé comment il se présente en utilisant le logiciel IRIS de Ch. Buil après conversion en fichier CFA (color file array) :

 

CFA.jpg

 

C' est une image noir et blanc ou chaque pixel est le résultat de ce que chaque photosite a enregistré en terme d' intensité lumineuse. Cette première image est une vue d' ensemble ou on ne distingue pas vraiment les pixels.

 

CFAzoom.jpg

 

Cette deuxième image est un agrandissement d' une portion de la première ou l' on distingue nettement chaque carré représentant un  photosite.

 Avec le logiciel IRIS j' ai bien la valeur de chaque pixel en parcourant l' image avec le pointeur de la souris mais je n' ai pas encore trouvé comment récupérer sous forme d' un fichier les valeurs représentées. Je n'ai pas non plus la correspondance "carré couleur". Si quelqu' un a une idée ?

 

Cordialement,

JL

P.S. les images ont été enregistrées en jpg pour pouvoir être lisibles dans le forum.


  • 0

#96 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 11 janvier 2019 - 10:32

Bonjour Jean-Luc,

 

 

 

Pour moi qui n'est pas très branché maquillage d'images, cette idée de regarder les RAW ou la fonction de séparation des 3 canaux des logiciels de retouche, est géniale.

On devrait voir ce que je cherche à voir, c'est à dire ce que fait le dématriçage et évaluer la perte en résolution.

 

Pour le reste  "entre le raisonnement de Tryphon et celui de Jérôme ", ici, pour le coup, je ne m'oppose pas à Jérôme, je cherche tout simplement  à comprendre.

 

Amicalement.


  • 0

#97 jmaffert

jmaffert

    Purgatorius

  • Membre confirmé
  • PipPipPipPipPipPipPip
  • 788 messages

Posté 11 janvier 2019 - 01:24

Intéressant. Il faudrait regarder des images assez monochromes de cette façon. On verrait bien quels pixels "voient" l'image.

 

Cela dit, quand on regarde la zone gauche et en haut à gauche, on bien l'impression que les carrés les plus sombres sont alternés d'une façon assez régulière. Cela donne l'impression qu'on voit la matrice de Bayer où une couleur est moins présente que les autres, si le foncé correspond réellement à moins de photons.

 

Cela est tout à fait logique.

 

Par ailleurs, il est clair que les algorithmes de combinaison des signaux sont des "recettes" propriétaires et qu'aucun fabricant d'appareil photo ne va publier les algorithmes qu'il utilise, comme l'a dit jmp76. De toutes façons d'autres raisons contribuent à la résolution finale d'un appareil photo. Principalement les aberrations et dans certains cas, la diffraction.

 

Cordialement


  • 0

#98 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 992 messages

Posté 11 janvier 2019 - 02:32

Oui l'idée de Jean-Luc est très intéressante!

Il faudrait expérimenter directement  sur des images RAW pour mesurer s'il y a perte de résolution (dans quelle mesure ?) ou non  puisque ces images RAW sortent toutes brutes du capteur après avoir subi l'action du CFA.


  • 0

#99 jmp76

jmp76

    Nucléotide

  • Membre confirmé
  • 32 messages

Posté 11 janvier 2019 - 06:05

Bonjour,

 

 

 Avec le logiciel IRIS j' ai bien la valeur de chaque pixel en parcourant l' image avec le pointeur de la souris mais je n' ai pas encore trouvé comment récupérer sous forme d' un fichier les valeurs représentées. Je n'ai pas non plus la correspondance "carré couleur". Si quelqu' un a une idée ?

 

La photo en provenance d'Iris semble montrer la luma de la matrice. (je ne pratique pas Iris) En 8 bits ou 16 bits?

 

Je me rapprocherai des formules de la luma pour exploiter ces infos... mais cela dépend d'un certain nombre de paramètres: espace couleur...

 

La formule est du genre   

Y=0.21 R +0.72 V +0.07 B

   donc 21% pour le rouge, 72% pour le vert, 7% pour le bleu

 

Je n'ai pas trop envie de me replonger dans cela ...   Pour avoir de bonnes données il faudrait analyser les notes d'applications des fabricants de capteurs.  S'ils en font encore!  On doit pouvoir trouver d'anciennes datant de 20 ans ou plus... Phillips, TI, ST m'en ont donné plein et des bouquins... mais le temps a passé.

Personnellement toutes ses questions ont été résolues il y a longtemps et je ne cherche pas particulièrement à réviser.

 

Cordialement


  • 0

#100 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Anthropoïde

  • Membre Modérateur
  • 828 messages

Posté 11 janvier 2019 - 10:35

En fouillant un peu dans les commandes IRIS j' ai pu avoir d' autre info:

- dans la boite de dialogue pour transformer un fichier RAW en CFA on peut mettre les coefficients évoqués pae jmp76 (n' ayant pas ces infos pour le capteur je n' ai rien mis)

Les intensités sont codées en  16 bits par le logiciel.

Enfin on peut spécifier le mode de dématricage: linéaire, gradient et une autre option dont j'ai oublié le nom

 

Je suis reparti d' un ficjier RAW (NEF) avec des zones blanche (ou presque blanche) que j' ai transformé en CFA:

 

MicroCFA.JPG

 

J' ai noté la valeur des 64 carrés en haut à gauche du fichier(donné par le logiciel flêche en bas à droite) que j' ai mis dans un tableau ci dessous:

 

Capture d’écran 2019-01-11 à 21.21.51.png

 

Enfin j' ai utlisé une autre commande IRIS pour dématricer avec l' option gradient j' ai eu accès pour les mêmes carrés aux valeurs pour le Rouge , le Vert et le Bleu. Voir image suivante:

 

Capture d’écran 2019-01-11 à 21.45.52.png

 

J' ai ainsi pu repérer pour chaque pixel quel était la valeur qui n' avait pas changé , P.E. si la valeur Bleu n' avait pas changé pour un pixel donné (alors que Rouge et Vert avaient changé) j' en est déduit qu' à cet emplacement dans la matrice de Bayer le photosite correspondant était associé au  filtre bleu ( ce que j' ai matérialisé par une couleur dans le tableau précédant)

J' ai ainsi pu reconstitué l' arrangement de la matrice de Bayer pour le capteur que j' ai utilisé.

J' en conclu que chaque photosite participe à l' image finale, l' échantillonnage se fait donc avec tous les photosites seule l' information couleur est extrapolée.

   

      J' espère avoir été clair.

 

Cordialement,

JL

 


  • 0




N'oubliez pas de consulter notre Magazine en ligne ... MIK-MAG!