Aller au contenu


***** Bienvenue dans le forum MikrOscOpia ! *****
Photo

La résolution informatique


  • Ce sujet est fermé Ce sujet est fermé
Aucune réponse à ce sujet

#1 Michel

Michel

    Homo sapiens microscopicus

  • Membre confirmé
  • PipPipPipPipPipPipPipPipPipPip
  • 8 671 messages

Posté 27 mars 2008 - 10:27

La résolution informatique expliquée.

La notion de résolution, caractéristique principale des instruments d'optique y compris notre œil, était très bien connue depuis les années 1800, et ceci bien avant les premiers balbutiements de l'informatique numérique.
Elle caractérise le plus petit détail que l'on peut distinguer avec ces instruments.
Avec l'apparition des premiers systèmes d'affichage de données sur les terminaux d'ordinateurs à partir des années 1970, une confusion est apparue dans l'utilisation du mot résolution que l'on a progressivement associé à la taille de l'image. D'où le conflit actuel entre ces deux désignations du même mot dont l'une est erronée.
C'est l'histoire de cette confusion regrettable que je vais vous raconter.

D'abord pour bien comprendre ce qui va suivre, voici quelques dates.

Optique : Dans les années 1880 Lord Rayleigh (1842 - 1919) vérifie expérimentalement les hypothèses précédemment élaborées sur le pouvoir séparateur qui vont devenir la fameuse formule que vous connaissez bien, appelée Critère de Rayleigh
A la même époque Ernst Abbé (1840-1905) établit sa théorie sur la résolution latérale du microscope.
C'est la même formule.
Il faudrait associer également Airy (Sir George Biddell Airy (1801 –1892)) et bien d'autres physiciens pour leur contribution à cette formule !

ON.jpg


Cette formule célèbre fixe inexorablement une limite à la course aux grossissements en nous montrant que le pouvoir séparateur est dépendant de plusieurs facteurs comme l'indice de réfraction n l'Overture Numérique et la longueur d'onde de la source qui éclaire l'objet.
Ainsi comme nous étions limités matériellement au niveau de l'Ouverture des instruments et des indices de réfraction, il ne restait plus qu'à faire diminuer la longueur d'onde si nous voulions espérer aller encore plus loin dans l'exploration de l'infiniment petit. Tout comme la fameuse formule d'Einstein sur le rapport entre masse et énergie fut prédictive en ce qui concerne le développement du nucléaire, notre formule sur le pouvoir de séparation l'a également été en permettant d'espérer développer le Microscope Electronique ce qui fut fait en 1933 par Ruska.
Petite explication : en remplaçant les photons par des électrons dont la longueur d'onde est beaucoup plus petite pour éclairer l'objet, on augmente considérablement ( 1000 X ) le pouvoir résolvant de l'instrument et par là même on peut voir des objets beaucoup plus petits sous des grandissements beaucoup plus forts.



Informatique:
Je passerais sous silence la préhistoire de l'informatique dont les produits peu performants étaient totalement inaccessibles au public.
Je commencerai mon histoire avec les pionniers de l'informatique individuelle dite de « garage » car elle se pratiquait le plus souvent dans des garages, pour en arriver à l'informatique « grand public » qui nous concerne tous actuellement.
Novembre 1971 : Intel met en vente le premier microprocesseur, le Intel 4004. Encore faut-il lui mettre un ordinateur autour ! C'est ce que feront des électroniciens de génie. En fait les microprocesseurs ont bien été fabriqués dans le but de les équiper de tous leurs organes de gestion et leurs périphériques pour en faire des ordinateurs.
Immédiatement après sont apparus aux Etats-Unis des kits. De développement permettant de mettre en œuvre les microprocesseurs. C'est dans ce contexte là que sont apparus les « pionniers » bien connus aujourd'hui.
1972 Création de la société ATARI.
1972 Bill Gates vends un système à base de microprocesseur (Intel 8088) pour mesurer le trafic routier.
1973 : 35 « ordinateurs » sont connectés sur le réseau ARPANET
1973 premier ordinateur vendu assemblé le MICRAL N et apparition aux Etats-Unis du mot micro-computer pour le qualifier. Il était français.
1974 Premier article dans Radio Electronics magazine pour construire soi même le Mark-8 (à base d'Intel 8008)
1974 Invention française de la carte à puce. (Moreno)
1975 Premier Basic pour l'Altaïr
1975 Création de Microsoft.
1976 Steve Jobs (de chez Atari) et Steve Wozniak (de chez HP) créent Apple.
1977 Apple II et PET de Commodore.
1978 Après mon premier ordinateur fait de mes mains (à base de 6800), nous décidons avec un copain d'aller plus loin en innovant un peu. Puis je me lance dans une autre aventure en partant de ces montages.
1980 Sortie du Sinclair ZX80
Août 1981 : Premier ordinateur IBM (5150 Personal Computer) bien moins performant que ses concurrents mais qui portait un nom prestigieux ! Les premiers acheteurs l'achetaient pour le symbole qu'il représentait et non pour ses performances.
1983 : 562 Ordinateurs sont connectés sur Internet !
Janvier 1984 : Présentation du premier Macintosh au public.

Ainsi s'achève cette petite ballade dans le passé de l'informatique familiale *

La confusion :
Les premiers ordinateurs vendus dans le commerce possédaient des cartes de visualisation (on appelait cela des VISU) capables au tout début de n'afficher que du texte puis du texte et du semi graphique, (16 lignes de 64 caractères par exemple sur le mien), puis du graphique. On ne parlait pas encore de « résolution » mais plutôt de capacité d'affichage.
D'où vient donc cette notion fausse de « résolution » ?
Nous allons vous l'expliquer.
On a commencé à parler de « résolution » au moment où les ordinateurs proposaient, à partir du même écran d'avoir deux modes d'affichage différents comme ce fut le cas par exemple avec le PC.
Par exemple en 1981 les premiers PC nous proposait un affichage en mode texte amélioré, en 4 couleurs et un affichage en mode graphique (320x200) en 4 couleurs également. (CGA)
Avec le VGA en 1987 en plus du mode texte nous avions deux modes d'affichage
320 x200 et 640 x 480 sur le même écran.
Quand je dis sur le même écran, c'est parce que cela a de l'importance comme nous allons le voir.

Genèse d'une confusion :
Si nous affichons sur un même écran deux modes d'affichage différents dont l'un comporte plus de points que l'autre, c'est évidemment celui qui a le plus de points qui a une meilleure résolution.
Autrement dit, pour faire rentrer plus de points sur un même écran, il faut bien que les points soient plus petits.
Nous avons donc deux résolutions différentes une basse et une haute ! **
Quand les notices nous annonçaient que tel ordinateur possédait deux résolutions, cela reflétait bien la réalité puisque celui qui avait la meilleure résolution affichait en même temps un nombre de points plus importants.
Dans ce cas de figure, celui qui ne connaissait pas le sens réel du mot résolution ne pouvait donc pas savoir quand on parlait de résolution, si on parlait de la taille du point ou de leur nombre.
Manque de chance, mais c'est la mauvaise réponse qui a été retenue et qui perdure aujourd'hui encore !

Dans notre cas de figure, rien de grave que l'on fasse la confusion entre le nombre de points et leur taille puisque dans les deux cas l'écran est le même.

Mais là ou la confusion est tragique c'est quand on sort de ce cadre, c'est-à-dire si l'on compare deux ordinateurs qui n'ont pas le même écran. Toute comparaison devient impossible car il n'y a plus de relation entre le nombre de pixels de l'un et la résolution de l'autre puisque la taille de l'écran n'est pas la même.
Ce raisonnement et cette confusion qui s'appliquaient au départ de l'informatique aux Visu se perpétue et se transpose dans d'autres domaines comme la photo numérique avec ses capteurs qui comportent eux aussi une taille physique et un nombre de « points ».

Exemple concret que je n'ai même pas besoin d'imaginer puisqu'il nous est fourni par le Forum !

ITAB2.jpg

Attention toutes les données de ce tableau ne sont pas garanties.


Ceux qui commettent la confusion diront que c'est la MDC 560 qui a la meilleure résolution 5.5 Mpixels contre 3.1 Mp, les autres diront que c'est la DCM 300 (3.2 µ contre 5.4µ) .

Et voilà un beau paradoxe quand on prend des vessies pour des lanternes !
Donc cette confusion interdit toute comparaison entre deux systèmes différents.
Et c'est bien le problème.
Quand on compare la résolution de deux capteurs on regarde la taille de ses éléments (photosites).
Quand on compare le nombre d'éléments (photosites) on regarde leur nombre !
Quand on compare les champs de dispositifs de prise de vue on tient compte à la fois du nombre d'éléments dans une dimension (Longueur largeur ou diagonale) de la taille des éléments de base et des caractéristiques optiques des optiques associées au capteur (focale, diaphragmes etc)

Certains auteurs, conscients du « scandale » ont remplacé arbitrairement résolution par définition. Malheureusement pour eux le mot définition désigne déjà un autre concept en optique celui d'une bonne vision des contours qui est liée à la fois à la résolution (comme elle a été définie plus haut) et à la bonne correction des aberrations.
Bon c'est un peu moins pire, mais n'aurait-il pas été plus simple d'inventer un nouveau mot, après tout les pionniers de l'informatique aux USA ne s'en sont pas privés !

Conclusion :
A mon avis, il ne peut pas y avoir un même mot pour désigner deux choses différentes dans un même contexte. Surtout quand l'un parfaitement en accord avec l'étymologie a en plus une légitimité historique..
A la limite, et cela arrive très souvent, un mot peut désigner deux choses différentes et c'est le contexte qui permet de les distinguer. ***
Mais dans un forum à vocation scientifique, essayons d'avoir un minimum de rigueur.

ANNEXES :

Théorie de la diffraction.
Pouvoir de résolution
Critère de Rayleigh

Histoire de l'informatique.
Base de données ordinateurs.
Modes de visualisation.

MDC et DCM
SCOPETEK (Hangzhou Scopetek Optical Electronics Co. Ltd)

** Cette situation de plusieurs "résolutions" sur un même écran continue de nos jours.
Vous faites clic droit sur le bureau puis propriétés puis Paramètres vous verrez bien de quoi je parle.
Tant que l’on utilise le même écran, la confusion ne porte pas à conséquence même si elle est regrettable, car ces valeurs sont interdépendantes (l’une varie avec l’autre) et sont liées à la taille de l’écran.

*** Si je dis qu’il y a des moutons sous mon lit, toute personne normalement constituée comprendra qu’il s’agit de boules de fibres et de poussières. Si je dis qu’il y a des moutons dans la bergerie, tout le monde comprendra que ce sont des ovins. Mais si l’on me demande d’enlever les moutons de la bergerie, je ne saurais pas si je dois prendre l’aspirateur ou aller chercher le chien car il y a bien d’autres moutons sous les moutons et je ne sais pas du tout desquels on parle.
  • 0




N'oubliez pas de consulter notre Magazine en ligne ... MIK-MAG!