Aller au contenu


***** Bienvenue dans le forum MikrOscOpia ! *****
Photo

La résolution de l'oeil selon les photographes.


  • Veuillez vous connecter pour répondre
16 réponses à ce sujet

#1 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 23 mai 2014 - 04:16

Comme nous parlions dans un autre sujet de la résolution de l'oeil qui est fixée "officiellement"  :) à UNE minute d' arc et que nous avons longuement parlé de la Résolution des  capteurs des appareils photos, mais un élément nouveau vient d’apparaître dans le débat.

 

Pour résumer, je regrettais que l'on parle de résolution pour désigner la taille en pixel d'un capteur numérique.

Cette absurdité (venue d'outre atlantique) aurait apparemment ému d'autres que moi puisque on remplace maintenant Résolution par Définition, ce qui n'est pas mieux ! (Puisque la définition est une autre caractéristique des instruments d'optique qui n'a rien à voir avec l'électronique moderne.)

 

Ne voila t'il pas que des personnes se sont demandé à partir de la notion erronée de la résolution d'un capteur, quelle est la résolution de l'oeil ?

Et la réponse est de 750 mégapixels.

 

Par ailleurs je lis : on considère que la focale de l’oeil est équivalente  a 65mm equiv 24*36

 

Comme quoi on peut réécrire la physique à partir d'un appareil photo , c'est ce que j'appelle la "vision" du photographe et je ne parle pas du cercle de confusion revu et corrigé par "les" photographes ( enfin, certains qui s'expriment sur le net)

 

Résolution de l'oeil : 1 minute d'arc ou 750 Megapixels.?

Focale de l'oeil  environ 16 mm ou  65 mm équivalent 24  X 36 ?

A vous de voir .


  • 0

#2 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 23 mai 2014 - 08:31

Bonsoir

Tu connais mon manque de pudeur quand il s'agit de mon ignorance... aussi je me lance.

Résolution de l'oeil : 1 minute d'arc ou 750 Megapixels.?

 

... je croyais que la taille du pixel était variable... ?

Si on considère un capteur de 12 Megapixels, ils seront plus gros sur un format 24x36 que sur un petit format de compact... ?

A moins qu'il y ait des petits yeux et des gros yeux... :)

Pour la focale de l'oeil, il est précisé "équivalent 24x36"... là, je veux bien, on peut lire aussi 55mm.

Cosinus... le presbyte !


  • 0

#3 pablito

pablito

    Homo sapiens microscopicus

  • Co.Admin
  • 1 248 messages

Posté 23 mai 2014 - 08:46

Moi aussi, Tryphon, ton débat me passionne et j'ai besoin ... d'éclairage.

 

Les cellules photoréceptrices de l’œil sont les cônes (5-10 millions) et les bâtonnets (100-150 millions).

Comment on peut se former une image de 750 mégapixels avec 160 millions de récepteurs ?

 

Naïvement, désolé de cette question peut être erronée dans sa construction, 

 

Pierre


  • 0

#4 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 mai 2014 - 08:54

Ce n'est pas aberrant de parler de l'oeil comme des pixels d'un appareil photo. En effet la rétine est constituée de capteurs discrets qu'on peut facilement assimiler à des photosites d'un CCD. Le champ d'un détecteur de la rétine est égal (à peu près) à sa taille divisée par la focale de l'oeil (16 mm); C'st ce qui donne la minute d'angle.

 

La valeur typique de 1 minute d'angle comme résolution de l'oeil n'est qu'une moyenne, mais elle n'est surtout valable qu'au centre du champ. Le champ de l'oeil est très grand, mais la résolution n'est pas constante dans le champ. Extrapoler un équivalent nombre de pixels pour l'oeil est donc extrêmement audacieux ! A moins que les gens n'aient compté les cônes et les bâtonnets de la rétine.

 

Les histoires de focale équivalente 24x36 ne concernent que le champ. Les photographes avaient dans la tête un ordre de grandeur du champ de l'objectif en fonction de la focale. Quand le capteur (entier) est plus petit, ce qui est souvent le cas, il faut diminuer la focale pour conserver le même champ. Par exemple, si le CCD mesure 12 x18 mm (quelque soit le nombre de pixels), pour avoir le même champ qu'un 24 x 36 équipé d'un objectif de focale 50 mm, il faudra un objectif de 25 mm de focale. Comme il y a des CCD de différentes tailles, les fabricants d'appareil de photo ramènent souvent les focales réelles des objectifs à un "équivalent" 24 x 36 pour que les photographes gardent leur repères.

 

Je suis extrêmement sceptique sur cet équivalent 65 mm en 24 x 36 de la focale de l'oeil, car ça ne ferait que 30° de champ environ or le champ de l'oeil est beaucoup plus grand.

 

Les photographes me paraissent être de curieux opticiens...



Tu as raison Pablito. Je pense que le calcul est fait avec tout le champ de l'oeil, mais la résolution du centre.


  • 0

#5 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 23 mai 2014 - 08:55

Bonsoir Cosinus,

 

On voit bien que tu es jeune (dans le forum!)

Il n'y a pas de gros pixels et de petits pixels.

Il n'y a pas de pixels flous ou nets !!!

 

Les pixels n'ont aucune réalité physique si ce n'est une charge dans un condensateur ou une unité de mémoire.

Un pixel est un élément de base d'une image numérique.

Et une image numérique qu'est que c'est ? Ah Ah !

Une image numérique est la représentation d'une image réelle dans la mémoire d'un ordinateur ou d'un appareil photo.

Autrement dit c'est une succession de zéro et de un matérialisés par des tensions électriques.

 

Bon après, on peut toujours croire qu'un pixel c'est autre chose comme un photo-site, une LED sur un écran (ou tout autre élément de sortie) une tâche d'encre sur un papier etc..

Mais ce ne sont pas des pixels.

On arrive même à prendre le pixel comme unité de mesure en cosmétologie : la crème qui efface les rides... au pixel près !

 

Les mots dérivent, dérivent, jusqu'à ce que chacun a sa propre définition du même mot Babylone n'est plus très loin.


  • 0

#6 jmaffert

jmaffert

    Batracien

  • Membre confirmé
  • PipPipPipPipPip
  • 584 messages

Posté 23 mai 2014 - 09:04

Pixel est l'abréviation de picture element, soit un élément d'échantillonnage d'une image numérique comme le dit Tryphon.

 

Certes le mot a pris un sens variable, mais il y avait une certaine logique à parler d'un pixel avec des capteurs CCD, car, à la base, un photosite donnera une valeur numérique donc un pixel de l'image. C'est surtout vrai en noir et blanc. Avec les CCD multicolores, ceux qui vibrent, des traitements bas niveaux,... il y a de plus en plus d'écart entre photosite et pixel de l'image qui sort.


  • 0

#7 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 23 mai 2014 - 09:07

Pardon, deux messages sont arrivés pendant que j'écrivais.

 

Les photographes me paraissent être de curieux opticiens..

.Je n'en veux pas aux photographes, mais parfois ils redécouvrent la nature (et aussi l'optique) à travers leur appareil photo où les notions d'optique des livres sur la photographie.

Et bien naturellement, ils ramènent tout à ce qu'ils connaissent le mieux .

Là où cela devient drôle, c'est quand ils extrapolent comme pour la résolution de l'oeil en commettant une double erreur : 

  • Sur le terme résolution ( La résolution d'un capteur n'est pas le nombre de pixel, mais la taille du photo-site)
  • Sur la structure de l'oeil qui n'est pas une matrice de capteurs cellulaires mais des capteurs plus ou moins gros, plus ou moins spécialisés, , répartis de façon irrégulière et surtout dont le traitement est totalement différent d'un traitement informatique d'une image numérique.

L'intérêt de cette comparaison est nul.


  • 0

#8 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 23 mai 2014 - 09:17

Merci,

J'ai appris qu'un pixel était différent d'un photosite.


  • 0

#9 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 23 mai 2014 - 09:31

Hello Pablito,

 

Les cellules photoréceptrices de l’œil sont les cônes (5-10 millions) et les bâtonnets (100-150 millions).
Comment on peut se former une image de 750 mégapixels avec 160 millions de récepteurs ?

Jérôme a bien répondu à la question, mais il faut préciser certaines choses.

L'image fournie au cerveau par l'oeil n'est pas une matrice de points (ou de cellules) comme dans un capteur électronique.

L'image que nous croyons voir est la superposition du traitement de plusieurs zones du cerveau qui travaillent indépendamment et en parallèle.

Si on suit avec une camera le regard et que l'on superpose le point de fixation du regard avec l'image regardée, on s'aperçoit que l'oeil scrute certaines zones dans un certain ordre (disons zones d'intérêt) .

Ce sont ces zones que regarde la macula et dont on a conscience. 

Ce sont ces zones que l'on utilise pour lire. Les analphabètes ne voient pas de la même manière)

Le reste de l'image est reconstitué automatiquement à partir de cellules plus grossières , avec moins de résolution et de netteté et avec une fréquence de rafraîchissement plus faible.

Notre éducation (apprentissage de la lecture où l'on est obligé de scanner un texte ) fait que nous ne voyons pas comme nos ancêtres qui ne savaient pas lire.

Nous avons tendance à voir comme on lit, alors que l'on peut voir globalement sans fixer un point particulier , en suivant uniquement  des itinéraires définis par l’instinct de l'espèce.

Un appareil photo va don scanner exhaustivement tous les photo-sites du capteur qui ont tous le même rang, alors que l'oeil va choisir certains points chauds d'un sujet et leur attribuer différentes valeurs alors que le reste de l'image sera reconstitué voire imaginé.


  • 0

#10 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 23 mai 2014 - 09:42

J'ai appris qu'un pixel était différent d'un photosite.

Et d'un élément de sortie (bulle d'encre, tâche, luminophore, petites pointes pour les aveugles, plastique fondu dans une imprimante 3D etc...

 

Un photo-site est une "cellule photo-électrique" qui va produire un signal électrique analogique à partir de photons.

Ce signal va être transformé en signal numérique qui ne prend qu'un nombre fini de valeurs elles-mêmes codées en binaire. Le PIXEL

Ce signal enregistré en mémoire, peut à son tour redonner une représentation de la cellule qui l'a produit.

A chaque point image pourra correspondre (mais ce n'est pas une obligation, l'image numérique peut très bien ne jamais être lue ) un point de sortie de taille totalement indépendante. 

Le pixel lui, qui est au milieu n'a évidemment pas de taille.


  • 0

#11 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 24 mai 2014 - 07:38

Petit complément.

 

Pourquoi crois-t'on voir des pixels sur un écran quand on agrandit une image numérique ?

 

On ne peut pas voir un pixel (tout comme on ne peut pas voir une image virtuelle, patience on y reviendra), alors qu'est-ce qu'on voit ?

 

Admettons que le pixel soit une information stockée dans une mémoire , comme le code qui représente une lettre à l'écran?

C'est une information codée en binaire et que dit cette information?

Prenons une cellule photo-électrique qui n'accepte que deux états.

soit elle reçoit de la lumière et l'information qui en sort est UN soit elle ne reçoit pas de lumière et l’information est ZÉRO.

Cette information qui représente un élément de base d'une photographie numérique (dans le sens informatique) s'appelle un PIXEL.

Maintenant qu'on a recueilli une information et quelle est stockée, qu'elle peut être copiée à l'infini, qu'en fait-on ?

 

Je précise que cette information est sans taille, sans forme, sans couleur, c'est un UN ou un ZÉRO, c'est tout.

Si on veut avoir une représentation de ce point (qui est un des éléments d'une image ) , il faut le matérialiser sur un support.

Ce support peut être n'importe quoi, mais disons que dans notre cas, nous allons le visualiser, le matérialiser sur un écran.

 

Imaginons maintenant un écran comme une matrice (c'est à dire une surface constituée de lignes et de colonnes) de petites LED qui s'allument ou qui s'éteignent.

Cela tombe bien puisque nous avons pour chaque LED deux états ALLUME ou ÉTEINT.

Si nous envoyons à une LED quelconque de notre écran matriciel la valeur UN ou ZÉRO de notre PIXEL, cette LED prendra la valeur du pixel.

Nous aurons une représentation matérielle d'une valeur numérique virtuelle.

Autant la valeur numérique ne contient aucune information autre que ALLUME ou ÉTEINT, donc aucune information sur la taille, la couleur, le poids ou que sais-je d'autre, autant la représentation matérielle du PIXEL, elle , à des caractéristiques physiques RÉELLES.

Il n'y a donc aucun rapport physique entre la cellule photo-électrique du départ et la LED d'arrivée car entre les deux l'information a été DÉMATÉRIALISE, réduite à une simple information.

L'informatique, même si elle a pour support un ordinateur matériel , est le traitement de l'information qui elle est immatérielle.

Imaginons maintenant un écran avec des "LED" énormes, le point représentant le PIXEL sera énorme.

A l'inverse, la LED pourrait être minuscule, on ne la verrait pas clairement, alors en informatique, nous avons la possibilité , d'allumer non plus UNE LED, mais un groupe de LEDs disons 4 pour chacun des points d'une image et donc notre point à nous.

C'est ce que font les fonctions ZOOM de logiciel de retouche, C'est la multiplication des pains.

Alors qu'est-ce qu'on voit ? Ah Ah !.

Ne me dites surtout pas que vous voyez des PIXELS !

En plus, ils sont encadrés par des lignes pour bien les  séparer de leurs voisins.

Admettons que la cellule photo-électrique du départ de notre expérience soit carrée et que la LED soit ronde. (La LED  n'en deviendra pas carrée pour autant)

Cela n'a aucune importance puisque le PIXEL ne porte aucune information concernant la forme. Pas plus que la couleur dans ce cas.

 
Bon, à la limite, chacun peut appeler pixel ce qu'il veut (même son chien!) , mais avouez que cela ne facilite ni le dialogue ni la compréhension de la nature physique (ou pas) des phénomènes.

  • 0

#12 savant Cosinus

savant Cosinus

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 1 606 messages

Posté 24 mai 2014 - 08:47

J'ai tout compris, merci.

... le pixel est ..."virtuel" B)

Cosinus.


  • 0

#13 pablito

pablito

    Homo sapiens microscopicus

  • Co.Admin
  • 1 248 messages

Posté 24 mai 2014 - 08:50

 

Prenons une cellule photo-électrique qui n'accepte que deux états.

soit elle reçoit de la lumière et l'information qui en sort est UN soit elle ne reçoit pas de lumière et l’information est ZÉRO.

Cette information qui représente un élément de base d'une photographie numérique (dans le sens informatique) s'appelle un PIXEL.

Maintenant qu'on a recueilli une information et quelle est stockée, qu'elle peut être copiée à l'infini, qu'en fait-on ?

 

 

Tryphon, 

 

C'est plus compliqué que cela.

 

Chacun des photosites de mon canon (et pareil pour nikon) perçoit comme information : 

- une intensité lumineuse sur 256 niveaux. Cette information est stockée sur un octet, DONC 8 FOIS 1 ou 0

- une information de couleur, suivant le filtre rouge, vert ou bleu qui est au dessus d'elle. (paramétrage lors du dématricage)

 

Les filtres ont une répartion selon la matrice de Bryce Bayer (sauf sur de rares appareils photos comme mon Fuji X pro1)

 

L'image qui va résulter de la lecture et l'interprétation des données fournies par les photosites va être constituée de points élémentaires (les pixels) qui, eux, ont comme indication,pour chaque pixel :

- une intensité de bleu sur 256 niveaux

- une intensité de vert sur 256 niveaux

- une intensité de rouge sur 256 niveaux.

D’où l'idée que l'on voit en "millions de couleurs" (256*256*256)

 

lorsque l'on agrandi l'image photo  à l'écran d'ordinateur, que se passe t-il ?

 

dès que l'on dépasse une Led de l'écran pour un pixel de la photo, plusieurs Led de l'écran fournissent la même information.

 

Pierre


  • 0

#14 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 24 mai 2014 - 09:01

Bonjour Pierre,

Je suis tout à fait d'accord avec toi sur le codage des pixels, mais cela ne change rien du tout au raisonnement.
Et le raisonnement doit faire intervenir le minimum de paramètres sans le dénaturer.
J'ai simplifié à outrance pour ne pas qu'on mélange tout. (On ne peut pas simplifier plus : DEUX états c'est du binaire pur.
L’inconvénient de dire que c'est plus compliqué que çà, fait que dans la pratique 80 % des lecteurs ne vont pas jusqu'au bout.
Après, on peut se poser des tas de questions comme la restitution des couleurs (ce qui a déjà été fait ici)
Mais avant d'aller plus loin, il faut à mon avis commencer par le début.
Rien ne sert de construire un édifice si les fondations ne sont pas solides.

Amitiés.


  • 0

#15 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 25 mai 2014 - 08:30

Pour aller un peu plus loin et pour que tout soit clair, parlons du traitement de l'information, autrement dit de l' Informatique.

L'informatique traite de l'information et cette information au niveau le plus bas a deux états 0 ou 1 , VRAI ou FAUX.
L'avantage d'utiliser un système numérique Binaire (contrairement au décimal dans lequel nous comptons tous) c'est qu'au niveau des opérations de base du processeur (Décalage, addition , rotation, inverse, etc) cette base binaire est la plus rapide .
Les ALU (Unités arithmétiques et logiques) des processeurs sont conçues dans ce but. C'est le niveau le plus bas.

Au niveau le plus haut, celui des langages évolués, on va utiliser des concepts comme celui des Variables.
Une Variable est une petite boite dont le contenu varie. Par exemple la variable numérique que nous avons le droit d'appeler comme bon nous semble disons A ou B peut prendre toutes les valeurs numériques que l'on veut bien lui donner . Par exemple si je donne la valeur 772 à la Variable A elle va garder cette valeur tant que je ne l'ai pas changée ou que le programme ne l'ait pas changée. Par exemple C= A+B , C changera chaque fois que je changerais A ou B.....

Ces variables peuvent être organisées, c'est à dire regroupées par familles qui ont des similitudes ainsi on obtient des Tableaux de ces variables.
Ce tableau peut avoir plusieurs dimensions.
S'il n'a qu'une seule dimension, c'est l'équivalent d'une liste.
S'il a DEUX dimensions, nous avons une surface, par exemple une IMAGE en Noir et Blanc ou en niveaux de gris
S'il a Trois dimensions, nous avons un VOLUME ou une image en Couleurs par exemple ou tout autre chose.

Vous avez bien compris que le PIXEL était une VARIABLE et que l' IMAGE était un TABLEAU ou matrice.

En informatique donc, si nous voulons manipuler une image, nous allons procéder comme les archéologues, quadriller le terrain et traiter le contenu de chaque case.
Chaque case est un PIXEL, un élément du tableau, une variable.

Le capteur électronique quadrille l'image qu'il reçoit, en PIXELS (Je n'ai pas dit qu'il était formé de pixel, mais que chacune de ses cases ,les Photo-sites allait nous donner un pixel.)

Quelles sont donc les informations que peut recevoir le photo-site d'un capteur électronique ?

Uniquement des intensités électriques correspondant à des intensités lumineuses.
Si nous interprétons donc la valeur reçue par un photo-site, non plus par des valeurs binaires (deux états) comme dans l'exemple que j'ai pris, mais selon toute la gamme ANALOGIQUE (continue) qu'il est capable de recevoir, nous allons avoir des valeurs qui peuvent être représentées par une courbe (de réponse)

J'ai bien dit analogiques! Car un photo-site reçoit des informations continues et les restitue de façon continue .
Mais comme le but d'un tel capteur est de produire un résultat compatible avec le traitement numérique d'un ordinateur, ces valeurs analogiques (continues) vont être converties dès leur sortie en valeurs numériques, c'est à dire discontinues.

Dans le premier exemple que j'ai pris, l'image était représentée par une matrice à deux dimensions, maintenant si je fais intervenir des valeurs pour représenter le pixel qui varient dans une fourchette prédéfinie par les caractéristiques du convertisseur analogique/numérique, nous avons non plus un tableau à deux dimensions, mais un tableau à trois dimensions, c'est à dire que l'image peut être assimilée à un VOLUME et on parlera pour cette troisième dimension de PROFONDEUR d'image.

Dans le cas cité par Pierre, la profondeur de l'image est d'un octet, huit bits soit des valeurs qui varient entre 0 et 255 . Dans mon cas elle était de UN bit pouvant prendre la valeur de 0 ou de 1.

Dans mon exemple nous avions une image en NOIR et BLANC , Pierre nous parlait d'images en Gris et en Couleurs .
 

NB.JPG

Image en Noir et Blanc


GRIS-256.JPG

Image en 256 niveaux de Gris


583592 couleurs.JPG

Image en 583.592 couleurs


Un photo-site ne peut donner QUE des images en Noir et Blanc ou en Niveaux de Gris, en aucun cas, il ne peut fournir des images en couleurs.

Pour cela, il faut utiliser une astuce que nous pourrions expliquer (mais cela a déjà été fait)
Mais ne me faites pas dire ce que je n'ai pas dit, un capteur électronique COULEUR sortira quand même des images codées en couleurs, car le traitement qui restitue la couleur, est intégré au capteur ou à ces circuits annexes.

Question de vocabulaire:, vous voyez bien la différence entre une image en Noir et Blanc et une image en Niveaux de Gris donc évitons de faire la confusion.

Dans le cas de l'image en Noir et Blanc, c'est l'exemple que j'ai pris dans mon explication sur le Pixel, il n'y a que DEUX valeurs que nous donne le photo-site, soit Noir , soit Blanc

Dans le cas des niveaux de gris il y a ici 256 niveaux de gris, mais il pourrait y en avoir ou moins, ou PLUS.

Dans le cas de la couleur, le contenu informatique de chaque PIXEL (La variable), c'est enrichi d'informations supplémentaires.

Mais, en conclusion, RIEN n’empêche de mettre TOUT ce que l'on veut comme information dans ce fameux pixel même des informations qui n'ont rien à voir avec l'image ! Mais attention, cela va augmenter le poids de l'image !

 

Ajout :
Pour terminer, question qui dérange :

Un Pixel peut-il être flou ?

 


  • 0

#16 Jean Marie Cavanihac

Jean Marie Cavanihac

    AUTEUR-MODERATEUR

  • Co-Admin
  • 3 194 messages

Posté 25 mai 2014 - 10:14

bonjour,

 

trés bonne explication. Un pixel ne peut pas être flou par définition, par contre sa représentation matérielle peut l'être suivant le périphérique de sortie !

 

Je pense que l'optimum est d'avoir une matrice de sortie de dimension égale à la matrice des pixels qu'on traite. Tout autre dimension donnera de l'extrapolation ou de l'interpolation. 

amitiés,

JMC


  • 0

#17 Tryphon T

Tryphon T

    oooOooo

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 13 044 messages

Posté 25 mai 2014 - 03:30

On se trompe toujours quelque-part, même en voulant bien faire.

Un photo-site ne peut donner QUE des images en Noir et Blanc ou en Niveaux de Gris, en aucun cas, il ne peut fournir des images en couleurs.

Un photo-site ne va pas donner des images, un photo-site produit un Pixel qui, plus tard, va servir à former un point image et un point ce n'est pas une image de ce fait il ne peut pas être flou.
Ce point image (Pixel) ne peut être flou, même une fois matérialisé dans le sens où une image peut être floue mais pas un point image dans le sens image numérique.
Je clarifierais cela au besoin.

Donc la phrase devient :

Un photo-site ne va donner au Pixel, que des informations pouvant être traduites en Noir ou Blanc ou en niveaux de Gris, même si on place devant lui un filtre coloré.

Pour obtenir de la couleur, il faut faire de la" gymnastique" on en a parlé mais peut-être pas complètement.


  • 0




N'oubliez pas de consulter notre Magazine en ligne ... MIK-MAG!