Ressources naturelles Canada | Natural Resources CanadaGouvernement du Canada | Government of Canada
EnglishContactez le CCTAide pour ce site WebFaire une recherche sur le site Web du CCTSite Web Gouvernement du Canada
Centre canadien de télédétectionPage d'accueil du Centre canadien de télédétectionStructure du Site web du CCTPublications des scientifiques du CCTExplications des termes de télédétectionRessources naturelles Canada
Personnel du CCT et l'organisationApplications, Recherche et développementTous sur les données, les capteurs et les stations de réceptionCours de formation pratique en télédétection pour étudiants et professeurs et matériaux de référencesLa communauté de télédétection

Table des matières

1. Introduction

2. Capteurs
3. Hyperfréquences
4. Analyse d'image
5. Applications

Accueil > Éducation  > Tutoriels

Notions fondamentales de télédétection


Chapitre 1. IntroductionSection 1.6Section 1.8

 

1.7 Caractéristiques des images

Avant de passer au prochain chapitre qui traite des capteurs et de leurs caractéristiques, nous devons définir et expliquer quelques termes et concepts fondamentaux associés aux images de télédétection.

Photographie aérienneL'énergie électromagnétique peut être perçue de façon photographique ou de façon électronique. Le processus photographique utilise une réaction chimique sur une surface sensible à la lumière pour capter et enregistrer les variations d'énergie. Il est important, en télédétection, de distinguer les termes "image" et "photographie". Une image est une représentation graphique, quels que soit la longueur d'onde ou le dispositif de télédétection qui ont été utilisés pour capter et enregistrer l'énergie électromagnétique. Une photographie désigne spécifiquement toute image captée et enregistrée sur une pellicule photographique. La photo noir et blanc, à gauche, représentant une partie de la ville d'Ottawa au Canada, a été obtenue grâce à la partie visible du spectre. Les photographies enregistrent habituellement les longueurs d'onde entre 0,3 et 0,9 mm (les portions visible et infrarouge réfléchi). Avec ces définitions, nous constatons que toute photographie est une image, mais que les images ne sont pas toutes des photographies. À moins de parler d'images enregistrées par un procédé photographique, nous utilisons donc le terme image.

 

pixelsUne photographie peut être présentée et affichée en format numérique en divisant l'image en petits morceaux de taille et de forme égales, que nous nommons pixels. La luminosité de chaque pixel est représentée par une valeur numérique. C'est exactement ce qui a été fait à la photographie de gauche. En effet, en appliquant les définitions présentées plus haut, nous déduisons que l'image est vraiment une image numérique de la photographie originale ! Cette photographie a été numérisée et subdivisée en pixels. Chaque pixel a été doté d'une valeur représentant les différents niveaux de luminosité. L'ordinateur affiche chaque valeur numérique comme un niveau de luminosité. Les capteurs enregistrent alors électroniquement l'énergie en format numérique (en rangées de chiffres). Ces deux différentes façons de représenter et d'afficher les données de télédétection, par des moyens photographiques ou numériques, sont interchangeables car elles représentent la même information (mais chaque conversion peut engendrer une perte de précision).

Dans la section précédente, nous avons décrit la portion visible du spectre et le concept de couleur. Nous percevons les couleurs parce que nos yeux captent la gamme entière des longueurs d'onde visibles et notre cerveau transforme cette information en couleurs distinctes. Imaginez le monde si nous ne pouvions percevoir qu'une seule bande étroite de longueurs d'onde ou de couleur ! De nombreux capteurs fonctionnent de cette façon. L'information d'une gamme étroite de longueur d'onde est captée et emmagasinée sous forme numérique dans un fichier réprésentant la bande de longueurs d'onde. Il est ensuite possible de combiner et d'afficher de ces bandes d'information numérique en utilisant les trois couleurs primaires (rouge, vert, bleu). Les données de chaque bande sont représentées comme une couleur primaire et, selon la luminosité relative (c.-à-d. valeur numérique) de chaque pixel dans chaque bande, les couleurs se combineront en proportions différentes pour produire des couleurs distinctes.

Image en noir et blanc Image couleur

 

 

Lorsque nous utilisons cette méthode pour afficher une seule bande ou gamme de longueurs d'onde, nous affichons réellement cette bande avec les trois couleurs primaires. Parce que la luminosité de chaque pixel est la même pour chaque couleur primaire, les couleurs se combinent et produisent une image en noir et blanc. L'image est donc affichée avec ses différentes teintes de gris, de noir à blanc. Lorsque nous affichons plus d'une bande, chaque bande ayant une couleur primaire différente, le niveau de luminosité peut être différent pour chaque combinaison de bandes ou de couleurs primaires, et les couleurs se combinent pour former un composé couleurs.

Section 1.6 Saviez-vous que? Questions éclairs Section 1.8


Mise à jour : 2002-08-21 allez au début de la page Avis importants