Aller au contenu


***** Bienvenue dans le forum MikrOscOpia ! *****
Photo

Taille de l'image a l'écran... du PC


  • Veuillez vous connecter pour répondre
81 réponses à ce sujet

#51 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 08 décembre 2015 - 01:03

mais il est rare qu'en microscopie on cherche à se prononcer sur la séparation d'objets.

En fait, c'est cet aspect-là (résolution) qui m'intéresse le plus, et pas le contraste.

En microscopie on sait que le contraste s'oppose à la résolution. Plus on augmente le contraste et plus on diminue la résolution.

Tout microscopiste qui utilise son œil cherchera toujours un compromis entre contraste et résolution et en tout cas favorisera dans ses réglages, inconsciemment souvent, l' "aspect" visuel pour ne pas dire esthétique au détriment de la résolution.

L’œil est un piètre radiomètre, il est incapable de discerner plus de 20 niveaux de gris , il favorisera toujours le contraste, c'est l'inverse que je cherche à faire.

 

 

il faudrait creuser des fentes de largeur bien inférieure au micron dans un matériau assez épais pour être parfaitement opaque...

Je ne comprends pas très bien pourquoi il faut une mire composé de plusieurs fentes.

Combien de fentes sont nécessaires ?

On veut mesurer le contraste entre les zones éclairées et les zones opaques?

Pour constituer une sinusoïde?

Une sinusoïde, c'est joli, mais très répétitif, ce qui compte, ce n'est pas le maximum et le minimum de la courbe ?

 

Ca ne prend pas en compte que la diffraction, mais l'ensemble des causes de dégradation du signal; par exemple, de mauvais traitements anti-reflets vont baisser le contraste, indépendamment de tout problème de résolution.

Ok, la FTM, apporte une évaluation globale sur une optique, mais ne mesure rien en particulier ?

 

 

de mauvais traitements anti-reflets vont baisser le contraste,

Cela veut-il dire qu'une optique avec un mauvais traitement anti-reflets ne se distinguera pas d'une optique avec un excellent traitement antireflet, mais un plus faible pouvoir séparateur ?

 

Amicalement.


  • 0

#52 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 08 décembre 2015 - 04:04

... lorsqu'on multiplie les pixels pour le plaisir on fait du grandissement à vide...

Pardon -_-, je devrais pas  B) 

Amicalement.


  • 0

#53 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 08 décembre 2015 - 04:42

Bonjour Cosinus,

 

. <<lorsqu'on multiplie les pixels pour le plaisir on fait du grandissement à vide...>>

 

C'est ce que je crois, mais il faut considérer dans quel environnement on est.

Si on a un objectif d'excellente qualité sur un appareil photo, il faut augmenter le nombre des sites pour arriver a capter le plus petit détail qu'il fournit.

Les premiers appareils photos numériques avaient des petites lentilles adaptées aux performances des premiers capteurs.

Ensuite les fabricants se sont dit qu'ils pourraient recycler les vieilles optiques (des reflex  par exemple) dans la mesure où les capteurs auraient des performances adaptées, c'est ce qui s'est passé.Et puis les photographes aimaient bien trafiquer les réglages...

Mais il y a une limite à ne pas franchir . A partir du moment ou on atteint la résolution nominale,il ne sert plus à rien de multiplier les mégapixels.

Dans une autre direction, certaines webcam intégrées aux ordinateurs et surtout les appareils photos intégrés aux téléphones on subi, une miniaturisation spectaculaire  avec une qualité toujours accrue.

Dans tous les cas, ce sont les mêmes calculs qui sont faits: adapter la taille et le nombre de photo-sites aux caractéristiques de l'optique utilisée.

 

Cosinus, tu me fais tourner en rond !


  • 0

#54 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 08 décembre 2015 - 06:36

Chers amis, les excellentes questions de Tryphon vont me forcer à faire des dessins explicatifs, donc un peu de patience...


  • 0

#55 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 08 décembre 2015 - 09:50

Je suis confus de te donner autant de travail !

 

En même temps, c'est passionnant !!


  • 0

#56 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 19 janvier 2016 - 12:33

Bonjour,

 

Pour faire bien comprendre qu'un photo-site (cellule photo-électrique) n'est pas un pixel, pas plus qu'un point à l'écran ou une tâche d'encre sur une photo, je suis allé rechercher ma première imprimante matricielle ( un dinosaure) une Logabax et récupéré la tête d'impression.

 

L'impression se fait par des aiguilles actionnées par des électro-aimants. Elle utilise un ruban encreur.

 

Arriere-50.jpg

Electro-aimants à l'arrière

 

Avant-50.jpg

L'avant : en contact avec le ruban encreur.

 

Avant-60.jpg

Détail

 

Tête.jpg

Les aiguilles à la bino

 

Synopt-3.jpg

Synoptique

 

 

On comprend bien que ce qu'on voit à l'écran, est totalement dématérialisé avant d'être affiché et qu'il n'y a plus de relation directe entre le sujet et l'affichage , au niveau de la taille/

A l'inverse, dans un microscope, la taille  de l'image est directement liée à la taille de l'objet par le grossissement dû à la puissance des lentilles.

 

 

Amicalement.

 

 


  • 0

#57 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 19 janvier 2016 - 04:15

Appel aux informaticiens !
  Désolé de pinailler, mais puisqu'on a parlé de la taille des photosites qui doit s'adapter à la résolution du microscope, qu'en est-il à l'autre bout de la chaine... sur l'écran de l'ordinateur ?
  - Je prends un cliché avec mon APN avec un format voisin de celui de l'écran de mon ordinateur, 16/9, l'écran de l'ordinateur a une taille de 1366 x 768 "pixels"
  si le cliché fait  2560 x1440, l'ordinateur "l'adapte" à la taille de mon écran... que deviennent les "pixels" superflus ? ... il en manque pour que mon image soit "exacte"...?
Le logiciel qui traite les images arrive-t-il à tromper son monde...  surtout quand on fait des clichés à 16 Mpx... pour respecter la résolution du microscope et couvrir le champ de l'image, je fournis 16 Mpx et mon écran m'en rend 1 Mpx... :wacko: Si j'affiche à 100%, j'ai seulement une petite partie de mon image qui ne veut rien dire... A l'écran il faut aussi choisir entre champ et résolution ?
  Je mets volontairement de coté la notion de résolution de l'écran ( DPI ), considérant l'écran standard de Monsieur Tout le Monde...
Autrement dit que devient le pixel donné par mon capteur une fois arrivé sur mon écran ? toutes les précautions prises au départ de la chaine de l'image ne sont-elles pas "gachées" par l'affichage à l'écran ?

 

 

Bonjour Cosinus,

 

Le capteur découpe l'image qu'il reçoit en tout petits carrés comme avec une grille de dessin très fine.

 

images (2).jpg

 

Chaque carré n'a qu'une nuance de gris, mais elle peut être différente du carré voisin. et a une structure uniforme , il est toujours net.

L'image est constituée de l'ensemble de la grille.

Ce carré est codé en binaire par l'ordinateur et chaque carré est représenté par la valeur binaire d'un nombre pouvant varier de 0 à 255. Ce carré s'appelle alors un PIXEL (Élément de base d'une image numérique (à l'intérieur d'un système informatique.

 

pixel.JPG   section1-original-zoom.png

 

A partir de ce moment on voit bien qu'il n'y a plus aucun rapport de taille entre le petit carré extrait de l'image qui lui a une taille et le pixel qui lui ne code que la différence de nuances de gris.

 

Le périphérique de sortie d'image va se débrouiller pour restituer une image la plus fidèle possible à l'original en faisant plus ou moins correspondre les pixels qui représentent l'image originale avec ce ses propres éléments de base (différents selon le type de périphérique. (Impact d'aiguille, gouttelette d'encre, photophore...)

 

images (3).jpg

 

On fait donc pour le mieux pour reconstituer artificiellement une image interprétable.

 

Amicalement.

 

Notez bien que ce qui est noté Pixels sur l'image N°2 n'en sont pas !

Les Pixels ce sont les nombres dans les cases de l'image N° 4.


  • 0

#58 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 19 janvier 2016 - 04:59

Merci Tryphon de ces précisions, je note:

Le périphérique de sortie d'image va se débrouiller pour restituer une image la plus fidèle possible à l'original en faisant plus ou moins correspondre les pixels qui représentent l'image originale avec ce ses propres éléments de base

 

... ce qui relativise beaucoup la théorie pour notre usage quotidien et compte tenu des matériels dont nous disposons... mais j'ai appris plein de choses !

Amicalement


  • 0

#59 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 19 janvier 2016 - 05:08

Re,

.. ce qui relativise beaucoup la théorie

Je ne sais pas ce que tu appelles "la théorie" ?
J'essaye de décoder ta question et ensuite j'essaye d'y répondre. (Pour le mieux)
Mais ma réponse n'est peut être pas bien adaptée à ta question.

J'ai retenu : "que deviennent les pixels de trop?"
A chaque fois que l'on change la taille d'une image numérique, compte tenu que l'image numérique est une "matrice de points" gravée dans le marbre (La grille de Léonard de Vinci ou plus précisément d' Alberti ) soit on perd des "points" soit, il faut bien en inventer !

C'est ce que fait l'ordinateur en permanence.

Amicalement.


  • 0

#60 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 19 janvier 2016 - 06:06

J'ai bien compris, mais je voulais dire que malgré la rigueur que l'on peut mettre dans le choix des capteurs et de leur résolution, il y a une partie de l'image qui nous échappe:

C'est ce que fait l'ordinateur en permanence.

 

 

Autrement dit, un fois sorti du capteur, les pixels nous échappent... mais je suis d'accord, ce n'est pas une raison pour faire n'importe quoi au départ de la chaine de l'image.

Amicalement


  • 0

#61 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 19 janvier 2016 - 07:07

un fois sorti du capteur, les pixels nous échappent...

Oui et non.
Dans l'appareil photo, les pixels nous échappent .
(C'est pour cela que je recherche une camera a capteur monochrome (même une WebCam ancienne) pour échapper à la coloration arbitraire (artificielle).
Non à partir du moment où la photo est dans l'ordinateur, elle ne va pas se modifier toute seule.
Elle n'est modifiée que quand on la modifie.
C'est pour cela que je n'utilise des algorithmes dont je connais le fonctionnement. Et comme je n'en connais pas beaucoup...

Un "crop" (recadrage = découpage) ne modifie pas la partie conservée.

Amicalement.


  • 0

#62 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 19 janvier 2016 - 09:46

Ta caméra, ayant beaucoup de petits photosites, crée un fichier dans lequel se trouve l'image donnée par ton microscope, bien échantillonnée pour ne pas perdre d'information. Il ne faut pas se plaindre qu'il y ait plus de pixels que tu ne peux visualiser sur ton écran, car tu as plein de possibilités :

- recadrer l'image en jetant une partie des pixels

- visualiser tout le champ; l'ordinateur va alors regrouper des pixels de l'image sur un pixel de l'écran, en faisant des moyennes et des interpolations

- visualiser une partie du champ à résolution maximum : un pixel de la caméra sur un pixel de l'écran

 

On choisit ce qu'on veut, on peut faire varier le grossissement. Que vouloir de mieux ?

 

éventuellement un écran avec plus de pixels. J'ai un 24" avec 2,3 Mpixels qui donne des images magnifiques, mais quand les photos ne sont pas très bonnes ça se voit !

 

Amicalement


  • 0

#63 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 20 janvier 2016 - 10:23

Bonjour Jérôme,

Je vais te faire un aveux, j'aime de plus en plus ma caméra... :)

L' APN m'a séduit au début car les automatismes (exposition) sont plus performants et il est plus facile de faire de "belles" photos, par exemple un cilié transparent à coté d'un détritus bien opaque, l'APN se débrouille très bien, et puis...  un APN tous le monde connait ! <_<

La caméra est plus en difficulté dans ces forts contrastes et j'ai du apprendre à m'en servir ( l'exposition, le gain, le gamma, les couleurs, etc. ... mon Dieu :rolleyes: !), de plus elle dépend de l'ordinateur ( complication supplémentaire  B) )... mais une fois cet apprentissage fait son utilisation est plus confortable ( ce qui n'engage que moi ).

J'en suis arrivé à la conclusion (déjà évoquée ), l'APN pour les belles photos, la caméra pour tous les jours... !

Amicalement


  • 0

#64 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 20 janvier 2016 - 10:57

Bonjour Jérôme,

 

100% d'accord avec toi.

 

On choisit ce que l'on veut :

Tout à fait d'accord avec toi, chacun même sa vie (microscopique) comme il veut .

Toutefois: ( ce n'est qu'une recommandation, mais fondamentale)

 

- si on fait des TESTS comparatifs d'objectifs, de microscopes de cameras etc, 

- si on demande une détermination pointue dépendante de détails

 

On doit impérativement présenter les photos à l' échelle UN (E-UN) ! 

C'est à dire que tout pixel de l'image soit représenté à l'écran par au moins un point d'affichage ou PLUS, cela ne gêne pas au contraire.

Ce procédé, n'est pas certes le plus esthétique, mais le plus efficace !

Malheureusement, le plus souvent par souci de "coquetterie" on veut présenter son image avec ces meilleurs atouts, alors on en réduit la taille (la-plupart du temps pour que l'image apparaisse entière) et on fait disparaître les détails.

En même temps, l'objectif qui a le plus fort ON, n'est pas utilisé  au profit d'un plus faible qui fait apparaître l'image plus flatteuse, mais MOINS informative.

 

Dans les autres cas, on privilégie, l'aspect "joli" de la photo, mais on fait disparaître des informations (partie rationnelle du cerveau) au profit de l'esthétisme (partie émotionnelle du cerveau) .

 

A chacun ses réflexes.

 

mais quand les photos ne sont pas très bonnes ça se voit !

 

Aspect informatif ou aspect esthétique?

A chacun ses réflexes.

 

Quand on a les deux, c'est encore mieux! mais attention aux priorités.

 

Amicalement.

 

 

@Cosinus,

 

J'en suis arrivé à la conclusion (déjà évoquée ), l'APN pour les belles photos, la caméra pour tous les jours... !

Le problème est pouvoir dédier un appareil à son microscope, quel que soit l'appareil.

S'il faut à chaque fois, faire l'adaptation, cela devient très vite fastidieux.

Alors acheter un "gros" appareil, sous prétexte qu'il est plus performant, et être obligé de le partager avec d'autres activité, les photos familiales par exemple, devient très vite fastidieux , de plus les photos vont être plus ou moins mélangées...

 

Dernière recommandation quand on utilise un appareil dédié au microscope, il ne faut pas régler son microscope en fonction de l'image que l'on voit à l'oculaire puis régler son appareil de prise de vue en conséquence, mais régler son microscope sur l'image de son appareil de prise de vue.

Cela change TOUT ! 

Mais pour cela il faut bénéficier d'un vrai  MONITORING, c'est à dire voir l'image en temps réel sur son périphérique de sortie.

C'est à ce niveau que doivent se faire les réglages du microscope, éclairage (et on sort du Köhler ) et mise au point.

 

Amicalement.


  • 0

#65 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 20 janvier 2016 - 06:19

Tout à fait d'accord avec Tryphon.

 

j'ai fait des photos de champignons aujourd'hui. Dans certains cas j'ai isolé un détail (une spore), en découpant l'image pour visualiser les détails. Exemple photo d'une spore de Melastiza chateri :

 

Melastiza_chateri 6.png

 

sans aucune compression  (perte de pixels) (objectif 60x, suffisant pour voir l'ornementation en alvéoles).

 

par contre pour visualiser les poils sombres, je suis descendu au 25x et je visualise la totalité de l'image pour se rendre compte de l'aspect global. La résolution n'est pas un problème dans ce cas et j'ai même fermé le diaphragme pour augmenter la profondeur de champ. Les poils, dispersés, sont formés de grosses cellules un peu allongées. passage de 3 Mpixels à 0,8 Mpixels.

 

Melastiza_chateri.jpg

 

Pour ceux qui, exceptionnellement :blink: , ne connaitraient pas Melastiza chateri, voici une photo du champignon. Rouge orangé de 2-3 cm de diamètre. Les poils foncés sont sur la partie inférieure, invisibles sur la photo. C'est un ascomycète, trouvé hier.

 

P1080268.jpg

 

 

Cordialement

 

 

 

 

 


  • 0

#66 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 22 janvier 2016 - 10:30

Pardonnez moi de revenir, mais après je saurai tout sur les capteurs... B) !

Les capteurs monochromes donneraient-ils des images meilleurs du fait de l'absence de cette fameuse matrice de Bayer, autrement dit leur "simplicité" est elle préférable ? Abstraction faite de l'absence de couleur :).

Amicalement.


Modifié par savant Cosinus, 22 janvier 2016 - 10:32 .

  • 0

#67 pablito

pablito

    Homo sapiens microscopicus

  • Co.Admin
  • 1 243 messages

Posté 22 janvier 2016 - 11:27

Cosinus,

Je ne suis pas intervenu dans tous ces débats
Mais plus que la matrice de Bayer, ce dont vous n'avez jamais parlé et qui est pourtant fondamental, c'est la présence ou non d'un filtre passe bas sur le capteur
S'il y en a un, il faut multiplier par 4 vos calculs théoriques

Mon appareil n'en comporte pas, c'est rarissime

Pierre
  • 0

#68 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 janvier 2016 - 07:05

Les capteurs monochromes échantillonnent mieux, en tout cas plus régulièrement, le signal. C'est pour cela que les caméras de télévision haut de gamme ont trois CCD (monochromes). Chaque CCD reçoit une fraction de la bande spectrale bien identifiée. On peut mettre des filtres de bonne qualité car il n'y en a qu'un par caméra, au lieu des millions de petits filtres intégrés au CCD couleur. En général, on utilise des prismes avec des faces traitées en filtre interférentiel dichroïque. Chaque CCD a son propre convertisseur analogique - digital, donc chaque bande spectrale est échantillonnée séparément avec une bonne dynamique. On peut également compenser le fait que le CCD n'a pas la même sensibilité dans les différentes bandes spectrales.

 

Je suis d'accord avec Pierre et Tryphon, l'image issue d'un appareil photo est le résultat d'une grande quantité de traitements de signal inconnus et ne correspond pas à une vision simple de petits carrés échantillonnant l'image et délivrant une valeur numérique pour chaque point. Mais après tout l'appareil délivre une image ressemblant à ce que l'on voit à l'oeil nu et c'est ce qu'on lui demande...

Amicalement


  • 0

#69 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 10:34

Bonjour Pierre,

Mais plus que la matrice de Bayer, ce dont vous n'avez jamais parlé et qui est pourtant fondamental, c'est la présence ou non d'un filtre passe bas sur le capteur

Bien au contraire ! J'en ai parlé c'est le filtre anti-aliasing .
Son rôle est fondamental : il sert à diminuer la résolution de l'image par rapport à celle du capteur pour atténuer l'aliasing (effet d'escalier) et respecter le critère de Nyquist.

 

 

Un filtre antialiasing est un filtre qui dégrade la résolution d'une image pour qu'elle respecte le critère de Nyquist dans le cas où les photo-sites sont trop gros pour la résolution de l'image  :http://forum.mikrosc...calier/?p=53467

 

 

 

Mon appareil n'en comporte pas, c'est rarissime


C'est quoi ton appareil ?

Amicalement.


  • 0

#70 Jean-Luc Bethmont (Picroformol)

Jean-Luc Bethmont (Picroformol)

    Reptile

  • Membre Modérateur
  • 689 messages

Posté 23 janvier 2016 - 10:59

Bonjour,

Si j' ai bien compris le filtre passe bas coupe les hautes fréquences contenues dans " l' image envoyée" par l. Objectif (les plus fins détails) ces fréquences n' arriveront pas sur le capteur et là je ne vois pas comment en multipliant par 4 le nombre de pixels on peut les récupérer ?
Pour les capteurs monochromes je partage l' avis de Jérôme. Ils sont souvent utilisés en astronomie associés à une roue à filtre rouge, vert, bleu permettant de reconstituer une image couleur avec un seul capteur.

Cordialement,
JL
  • 0

#71 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 23 janvier 2016 - 11:21

... je veux parler des caméras monochromes utilisées en "monochrome" et non avec des filtres pour restituer la couleur, autrement dit: image noir et blanc contre image couleur ... du point de vue résolution, "qualité" ?


  • 0

#72 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 11:49

Bonjour Cosinus,

 

Les cameras monochromes sont supérieures aux cameras couleurs.

Pourquoi ? Parce que les cameras couleurs sont inférieures.

Avec une camera couleur on ne peut pas faire de monochrome à part un ersatz de monochrome.

Tandis qu'avec une camera monochrome on peut faire de la "vraie" couleur, comme le fait notre œil/cerveau.

 

Donc, avec ta camera monochrome tu peux faire du vrai monochrome et de la "vraie" couleur.

Avec une camera couleur tu fais de la "fausse" couleur et du faux monochrome.

 

La fausse couleur, c'est de l'interpolation de pixels issus d'une matrice de Bayer (ou autre).

La "vraie" couleur, c'est l'attribution à chaque  pixel d'une couleur résultante de trois images passées par trois filtres différents.

Mais dans la pratique, c'est bien plus compliqué que çà.

 

LRGB-2.JPG

Filtres LRGB pour capteur monochrome.

 

Si tu n'as pas besoin de couleur, utilise un capteur monochrome.

 

Amicalement.

 

 


  • 0

#73 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 janvier 2016 - 11:57

Une caméra "monochrome" est en fait une caméra polychrome, car elle va capter l'ensemble du spectre auquel est sensible le silicium qui constitue les photodétecteurs. Le silicium étant assez sensible dans le proche IR (jusque vers 1µm), on commence en général par couper ce proche IR, car les objectifs n'étant pas corrigés pour ces longueurs d'onde, ils ont plein d'aberrations et rendent l'image floue.

Ensuite tu auras une image bien nette, bien échantillonnée, où les niveaux de gris restitueront l'intensité reçue en chaque point, modulée par la réponse spectrale du silicium qui n'est pas constante en fonction de la longueur d'onde. Sans l'information couleur...mais avec une meilleure résolution, à nombre de photodétecteurs identique.

Cette information couleur peut-être sans aucune importance ou au contraire très importante. Cela dépend de ce qu'on regarde : sur un cilié in vivo, la couleur n'a pas d'importance; sur une préparation d'anapath, colorée pour faire ressortir certains éléments précis, la couleur sera essentielle...

Sans vouloir relancer un vieux débat, compte tenu de l'existence de grandes matrices couleur à petits pixels, la matrice monochrome perd un peu de son intérêt, pour la photo. En cinéma, elle peut garder un intérêt car elle est plus économe en pixels et permet un débit plus important en images par seconde.

Encore une question sans réponse...unique.

Amicalement

Modifié par jmaffert, 23 janvier 2016 - 11:59 .

  • 0

#74 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 01:51

Une caméra "monochrome" est en fait une caméra polychrome,

Non.

Question de point de vue?

Ce serait plutôt la lumière qui serait polychrome et la camera monochrome, elle,  monochrome.

Puisque la camera monochrome ne donne aucune information de couleur.

En fait les couleurs n'existent même pas dans la nature. Uniquement des fréquences et des longueurs d'ondes différentes et des sauts quantiques d'énergies différentes.

En science il faut quitter assez souvent son anthropocentrisme.

Les "couleurs" ce sont des impressions de notre cerveau (et de celui des animaux qui "voient" en couleurs).

Nous sommes tellement habitués à voir le monde en couleurs que bon nombre d'entre nous "croit" que le monde est en couleurs : illusions !

 

 

la matrice monochrome perd un peu de son intérêt, pour la photo

Oui, elle n'en a jamais eu d'ailleurs, mise à part pour  les artistes qui officient en "Noir & Blanc.

En photo, on recherche "intuitivement" ce qui est reproduit comme on le voit, tout en subjectivité.

 

Par contre, dans le domaine scientifique où la réalité compte plus que l'esthétisme, le capteur monochrome (niveaux de gris) a tout à fait sa place.

 

Prenons l'exemple du "planétaire", c'est à dire le domaine de l'astronomie ou l'on cherche le maximum de résolution, c'est à dire la possibilité de capter le MAXIMUM d'informations, on utilise des "monochromes" avec la possibilité d'utiliser une roue à filtres pour le "fun".

 

Amicalement.

 

 

 


  • 0

#75 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 23 janvier 2016 - 02:21

Merci à tous les deux, vous répondez parfaitement à ma question... ou plus exactement vous confirmez ce que j'avais cru comprendre...

Amicalement

Cosinus... "le capteur" !

 - prétentieux, va !

P.S. une dernière, sur une fiche technique à quoi reconnait-on un vraie capteur monochrome (sans filtre) d'un faux... (chez Image Source il y a des modèles de caméra monochrome et couleur qui affichent le même capteur)...! ? Aptima MT 9P031


Modifié par savant Cosinus, 23 janvier 2016 - 02:35 .

  • 0

#76 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 janvier 2016 - 03:14

Je vois qu'il faut être plus précis dans le vocabulaire. Une lumière monochromatique est une lumière à une seule longueur d'onde, ou du moins une bande spectrale étroite. Un monochromateur est un appareil fournissant une lumière à spectre étroit à partir d'une source lumineuse à spectre large.

Une caméra monochromatique est une caméra qui ne capterait qu'une bande étroite. Une caméra polychromatique est une caméra qui capte un spectre large, ce qui est le cas des CCD ou CMOS silicium.

 

A titre d'exemple voici la sensibilité spectrale d'une caméra CMOS :

Capture d’écran 2016-01-23 à 15.04.26.png

 

Ca ne veut pas dire que c'est une caméra couleur, c'est une autre notion.

 

La nature n'est pas "en couleur", mais elle est polychromatique car en général éclairée par le soleil, hautement polychromatique.

 

Ci-dessus, quand je parlais de photo ou de caméra, je parlais de microscopie uniquement, en prise de vue fixe, ou en séquence vidéo.

 

Mais je ne sais pas répondre à la question de Cosinus sur les caméras...

 

Amicalement


Modifié par jmaffert, 23 janvier 2016 - 03:15 .

  • 0

#77 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 04:11

D'accord avec toi, soyons précis,

 

Chroma veut dire couleur.

Polychromatique qui a plusieurs couleurs.

Comme je l'indiquais, la couleur n'est pas dans la nature mais dans notre tête.

C'est une traduction de longueurs d'ondes différentes ou d'énergies, en "sensations" différentes. Ce n'est pas de la physique.

Pour la lumière du soleil ou lumière blanche, il vaudrait mieux dire multispectrale ou quelque chose d'approché et non polychromatique.

Pour nous elle est bien polychromatique, mais que pour nous.

Anthropocentrisme quand tu nous tiens... Le "charme" des particules illustre bien ceci.

 

Amicalement.


  • 0

#78 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 04:22

une dernière, sur une fiche technique à quoi reconnait-on un vraie capteur monochrome (sans filtre) d'un faux... (chez Image Source il y a des modèles de caméra monochrome et couleur qui affichent le même capteur)...! ? Aptima MT 9P031

 

Il y a deux capteurs Aptima MT 9P031

 

le Aptima MT 9P031 M

le Aptima MT 9P031 C

 

Ce sont les mêmes, l'un est avec matrice Couleur : C

L'autre est nu : M 

 

MT9.JPG

 

Amicalement.


  • 0

#79 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 23 janvier 2016 - 05:58

Merci Tryphon, c'est ce que je n'avais pas compris.

Amicalement


  • 0

#80 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 janvier 2016 - 08:18

Juste pour une bonne lecture des courbes présentées qui ont l'air assez différentes : la courbe que j'ai donnée (trouvée sur Internet) est une courbe donnant la tension de sortie en fonction de l'éclairement (W/cm2). La courbe du fabricant de capteur est une courbe d'efficacité quantique, c'est à dire : quelles est la probabilité qu'un photon crée une paire électron-trou ?

 

C'est le bleu-vert qui donne la meilleure efficacité quantique, mais comme les photons bleus sont plus énergétiques que les photons rouges, pour une intensité lumineuse égale, il arrive moins de photons bleus que de photons rouges. C'est pour ça que la courbe avec l'intensité a un maximum beaucoup plus dans le rouge que la courbe d'efficacité : il arrive plus de photons moins énergétiques, avec un rendement quantique moins bon, mais en énergie, le capteur est plus sensible dans le rouge...

 

Les deux courbes sont donc homogènes.

 

@Tryphon

 

Les mots ont des sens variés selon le contexte...On dit une source de lumière multi-spectrale, mais un monochromateur...

 

Amicalement


  • 0

#81 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 043 messages

Posté 23 janvier 2016 - 09:08

Juste pour une bonne lecture des courbes présentées qui ont l'air assez différentes

Je n'ai jamais voulu opposer une courbe à une autre, j'ai simplement donné un extrait de la feuille qui donne la différence entre les deux cameras Couleur © et Monochrome(M)

 

Les mots ont des sens variés selon le contexte..

Tout à fait . En diététique on parle d'alimentation monochromatique quand on ne varie pas assez la nature des aliments.

 

 

Une caméra monochromatique est une caméra qui ne capterait qu'une bande étroite

Non , pas pour moi, mais je te comprends parfaitement !  :)

Une camera monochromatique serait une camera d'une seule couleur ! 

De plus, je n'ai pas parlé de caméra monochromatique, mais monochrome.

 

"Les mots ont un sens varié selon le contexte". Ici cela signifie qu'elle n'est pas en couleur.

Monochromatique ne fait pas référence à une seule fréquence mais au fait qu'il n'en sort qu'un seul  canal coloré et ceci quelle que soit la couleur choisie !

 

Nuances de gris le plus souvent, mais nuances de ce qu'on veut :bleu, rouge, vert, ou sépia...

Alors qu'une camera couleur délivrera 3 canaux : R V B .

 

Le codage n'est pas le même dans les deux cas.

Mais tout ceci ne sont que des broutilles, nous nous comprenons très bien.

 

Amicalement.

 


  • 0

#82 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 janvier 2016 - 09:26

Il n'y avait aucun problème, sauf pour moi : en regardant les deux courbes, qui ont des maximums à des longueurs d'onde très différentes, je me suis demandé pourquoi ? Etait-ce un problème de photodétecteurs différents ayant une sensibilité spectrale bien différente ? En regardant mieux les courbes, j'ai compris pourquoi et j'ai donné l'explication pour que tout le monde comprenne ce que je n'avais pas compris au début...

Amicalement


  • 0




N'oubliez pas de consulter notre Magazine en ligne ... MIK-MAG!