En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour assurer le bon fonctionnement de nos services.
En savoir plus

Disciplines 2°cycle

La photographie numérique

La photographie numérique

Par ANNA BURBALLA-DELGADO, publié le dimanche 21 avril 2019 16:20 - Mis à jour le dimanche 28 avril 2019 16:53

Introduction

Les technologies de la photographie argentique ont eu une évolution très lente, liée aux progrès en optique, mécanique et chimie. Ce n’est plus du tout le cas de l’évolution actuelle, davantage due aux algorithmes qu’à la physique : algorithmes de développement et d’amélioration de l’image brute, algorithmes d’aide à la prise de vue. Cet exemple est caractéristique des façons de procéder de la révolution informatique par rapport aux approches traditionnelles.
La photographie numérique présente un coût marginal très faible et une diffusion par internet facile et immédiate : chaque jour, des milliards de photos sont prises et partagées.

Impacts sur les pratiques humaines

La gratuité et l’immédiateté de la réplication des images introduisent de nouveaux usages de la photographie : à la photographie archive (histoire de famille) s’ajoutent la photographie à partager et la photographie utilitaire, prothèse de la mémoire (photo d’un ticket de caisse, d’une présentation lors d’une réunion de travail, d’une place de parking, etc.). Les images s’intègrent à tous les dispositifs de communication et de partage, téléphones, Web et réseaux sociaux.
De nouveaux problèmes apparaissent, liés à la diffusion de photos qui ne disparaîtront jamais (notion de droit à l’oubli), au trucage difficile à détecter des images, au pistage des individus ou à l’obsolescence des supports. Est ainsi posée la question de l’archivage de photographies historiques, scientifiques ou culturelles.

Repères historiques

  • 1826 : naissance de la photographie argentique.
  • 1900 : photographie en couleurs. Après la dernière guerre mondiale, généralisation du format 24 x 36 et de la visée reflex. 
  • 1969 : arrivée des premiers capteurs CCD (Charge Coupled Device).
  • 1975 : apparition des premiers appareils numériques. 
  • 2007 : arrivée du smartphone.

Les données et l’information

En entrée, le capteur est formé de photosites en matrice de petits carrés de quatre photosites, deux verts, un bleu et un rouge, correspondant à la répartition des cônes de la rétine. La définition du capteur se mesure en millions de photosites.

En sortie, l’image est formée de pixels colorés homogènes, représentés par trois nombres RVB (rouge, vert, bleu). La définition de l’image se compte en mégapixels ; elle n’est pas forcément égale à celle du capteur. La profondeur de couleur est en général de 8 bits par pixel et par couleur pour l’image finale.

Des métadonnées sont stockées dans les fichiers images sous format EXIF (Exchangeable Image File Format) : modèle de l’appareil, objectif, vitesse, diaphragme, distance de mise au point, auteur, copyright, localisation, etc.

Les couleurs peuvent être représentées dans différents systèmes : RVB, TSL (teinte, saturation, lumière), avec des formules empiriques de passage d’un modèle à l’autre. On distingue différents formats des fichiers images, compressés ou non, avec ou sans perte : RAW, BMP, TIFF, JPEG.

Les algorithmes et les programmes

Des algorithmes permettent de traiter toutes les lumières, d’effectuer une retouche facile, avec une qualité maintenant bien supérieure à l’argentique. Avec l’arrivée du téléphone mobile, des algorithmes de fusion d’images permettent de concilier une excellente qualité avec un capteur et un objectif minuscules.

De nombreux algorithmes sophistiqués sont utilisés dans les appareils de photographie numérique :

- Lors  de la prise de vue : calcul de l’exposition, mise au point,  stabilisation par le capteur et/ou l’objectif, le tout en  automatique ou manuel assisté, focus-peaking (scintillement  des contours nets), prise en rafales rapides d’images multiples  avant et après appui sur le déclencheur.

- Lors  du développement de l’image issue du capteur en une image  pixellisée : gestion de la lumière et du contraste, balance  des blancs, netteté, débouchage des ombres, correction automatique  des distorsions ou des aberrations optiques.

- Après  le développement : compression du fichier (TIFF sans perte,  JPEG avec perte).

-  En  utilisant la fusion d’images : réduction du bruit et  amélioration de la netteté, panoramas, HDR (High Dynamic Range), super-résolution par micro-décalages du capteur, focus stacking pour étendre la netteté avec plusieurs mises au point  successives, réduction du bruit et amélioration de la netteté.

Certains appareils peuvent augmenter leurs fonctionnalités par téléchargement de nouveaux logiciels.

Les machines

Comme les algorithmes de prise de vue et de développement demandent beaucoup de calcul, les appareils embarquent plusieurs processeurs, généraux ou spécialisés.

Les algorithmes prennent le relais des capteurs physiques en calculant les pixels de l’image finale : ils compensent par exemple les distorsions des lentilles. Des algorithmes permettent également de commander la mise au point et l’exposition automatique, ainsi que de compenser le bougé de l’utilisateur (stabilisation).

Compétences

 Contenus

Capacités attendues

Photosites, pixels, résolution (du capteur, de l’image), profondeur de couleur

Distinguer les photosites du capteur et les pixels de l’image en comparant les résolutions du capteur et de l’image selon les réglages de l’appareil.

Métadonnées  EXIF

Retrouver les métadonnées d’une photographie.

Traitement d’image

Traiter  par programme une image pour la transformer en agissant sur les  trois composantes de ses pixels.

Rôle des algorithmes dans les appareils photo numériques

Expliciter des algorithmes associés à la prise de vue.
Identifier les étapes de la construction de l’image finale.

 

Ce que propose le programme : Exemples d'activités

  • Programmer un algorithme de passage d’une image couleur à une image en niveaux de gris : par moyenne des pixels RVB ou par changement de modèle de représentation (du RVB au TSL, mise de la saturation à zéro, retour au RVB).
  • Programmer un algorithme de passage au négatif d’une image. 
  • Programmer un algorithme d’extraction de contours par comparaison entre pixels voisins et utilisation d’un seuil.
  • Utiliser un logiciel de retouche afin de modifier les courbes de luminosité, de contraste, de couleur d’une photographie.