Images optiques récentes sur tout le territoire avec une résolution spatiale de 10 m
Images optiques de l’année sur tout le territoire avec une résolution spatiale de 1,5 m
Images optiques ponctuellement disponibles sur le territoire avec une résolution spatiale de 50 cm
Images radars récentes sur tout le territoire avec une résolution spatiale de 10 m
Des informations au-delà du visible (infrarouge, proche infrarouge) et régulièrement mises à jour permettant de visualiser l’état des couvertures terrestres (densité de végétation, teneur en eau de la végétation ou des sols, surfaces artificialisées, etc.). Retrouvez dans les fiches de métadonnées du GéoCatalogue de GéoBretagne plus d'informations sur ces images, ainsi que les liens de visualisation et de téléchargement.
Occupation biophysique des sols, occupation et usage des sols en milieu urbain, occupation du sol nationale
Taux d’imperméabilisation calculé à partir d’images Sentinel-2, Tache urbaine extraite à partir d’images radar Sentinel-1
Densité de forêt calculée à partir d’images Sentinel-2, Inventaire des prairies réalisé à partir d’images Sentinel-2, Arbres urbains extraits à partir d’images SPOT 5
Des produits issus du traitement des images satellitaires : produit opérationnels fournis par le programme Européen d’observation de la Terre et produits fournis par les acteurs de la recherche. Retrouvez dans les fiches de métadonnées du GéoCatalogue de GéoBretagne plus d'informations sur ces images, ainsi que les liens de visualisation et de téléchargement.
Pour comprendre ces données (images et produits), en proposant des ressources en lignes, en proposant des ateliers, et en étant votre point de relais local
Pour apprendre à utiliser ces images : comment les afficher dans vos outils courants, comment les interpréter, comment en extraire des informations simples
Pour vous aider à co-construire vos produits à partir de données satellitaires dans le cadre de projets expérimentaux ou opérationnels, pour vous aider à co-construire des services et applications, en lien avec des fournisseurs experts des données spatiales
Le Pôle Métier Télédétection est un groupe de travail ouvert à tous les partenaires GéoBretagne et toutes les personnes intéressées par les données d'observation de la Terre.
Copernicus Régional est la démarche régionale pour favoriser l'usage des données issues du programme Européen Copernicus et autres données d'observation de la Terre. Elle vise à simplifier l'accès à ces données par un point d'accès unique, à proposer assistance, entraide et mise en réseau pour l'usage de ces données, à initier et accompagner la co-constructions d'applications et services régionaux utilisant des données satellitaires.
Pour toute question, contribution, remarque, contactez-nous
Le produit "Densité de Forêt" permet de visualiser les dynamiques spatiale et temporelle des espaces arborés. Les surfaces arborées cartographiées sont les couronnes des arbres vues du ciel. La densité de forêt est ici traduite par un taux de couverture arborée par unité de surface (pixel de 20m par 20m), exprimé en % (0% : surface dépourvue d'arbres - 100% : surface arborée). Un seuil de 10% est appliqué pour représenté les surfaces arborées. Deux résolutions spatiales sont disponibles : résolution originale de 20 m et résolution agrégée de 100 m. La plus petite surface cartographiée est de 0,5 ha et la précision thématique est de 90%. Pour l'affichage des flux WMS, le produit à 100 m s'affiche à de faibles niveaux de zoom et le produit à 20 m à de forts niveaux de zoom. Le produit "Densité de Forêt" est fourni par le service "Territoire" du programme européen d'observation de la Terre Copernicus au format raster, et mis à jours tous les 3 ans depuis 2012.
La couche "Densité de Forêt" est produite à partir d'images spatiales à haute résolution. D'autres données (images spatiales à très haute résolution et/ou des ortho-photo aériennes) sont utilisées comme données de référence. Le taux de couverture arborée est évalué par photo-interprétation sur les données de référence suivant une approche de grille de points. Une interpolation linéaire permet ensuite d'extrapoler la couverture arborée sur la totalité des images spatiales haute résolution.
Plus d'informations, liens de visualisation et de téléchargement sur la fiche de métadonnées du GéoCatalogue de GéoBretagne
Le produit "Arbres urbains" Copernicus cartographie les arbres contenus dans la classe "surface artificielle" de l'Atlas Urbain. Sont cartographiés les alignements ou parcelles d'arbres d'au moins 500 m² de surface et 10 mètres de large. Sont exclus les alignements d'arbres le long des routes hors zones urbaines ou hors forêts adjacentes aux zones urbaines. Pour l'affichage des flux WMS, la couche raster s'affiche à de faibles niveaux de zoom et la couche vecteur à de forts niveaux de zoom.
Une méthode de classification automatisée interactive est appliquée sur des images SPOT 5 acquises entre mars et novembre. Une routine de post-traitement est appliquée pour fournir les résultats en format vectoriel.
Plus d'informations, liens de visualisation et de téléchargement sur la fiche de métadonnées du GéoCatalogue de GéoBretagne
Quelles données sont disponibles sur mon territoire, à quelle fréquence ?
Images satellitaires, des photos prises depuis l'espace ?
Que fait-on avec ces images ?
Comment accéder aux images ?
Qui transforme ces images en produits ?
Combien ça coûte ?
Comment obtenir des produits utiles dans mon métier ?
Puis-je traiter directement ces données ?
Avec quels logiciels ?
Comment puis-je me faire accompagner ?
Comment puis-je me former ?
Quid du big data ?
Quid de l’Intelligence Artificielle (IA) ?
OTB (Orfeo toolbox)
Monteverdi
SNAP (Sentinel Application Platform)
GRASS
QGIS
R
TIMESAT
Sen2Cor
Fmask(Python)
ARTMO
PolSARpro
SAGA GIS
Fmask (standalone / Matlab code)
Broadview Radar Altimetry Toolbox
Sen2Three
ORFEO ToolBox
GDAL/OGR
ESA Sentinel App
Generic Mapping Tools (GMT)
Sentinel-2 Radiometric Uncertainty Tool
ArcGIS Sentinel-2 Download Tools
Chaque bande spectrale est une image raster en niveau de gris qui représente les valeurs de réflectance des surfaces au sol pour un intervalle de longueurs d’ondes donné.
Le CNES est un établissement public à caractère industriel et commercial (EPIC) qui est en charge du développement des activités spatiales de la France. Il a pour mission de proposer au gouvernement français les orientations de sa politique spatiale et de mettre en œuvre, avec le concours de ses partenaires de l'industrie, de la recherche et de la défense, les programmes décidés.
La réalisation d'une composition colorée consiste à attribuer à chaque couleur primaire (rouge, vert et bleu) trois bandes spectrales d'un capteur satellitaire. Par synthèse additive, il est possible de reconstituer toutes les couleurs. Cela permet de faciliter l'interprétation des images satellitaires et de mettre en évidences des phénomènes environnementaux.
Copernicus est le Programme européen d'observation de la Terre qui vise à doter l'Europe d'une capacité autonome d'observation et de surveillance de la Terre pour l’environnement et la sécurité (surveillance de la Terre, son environnement, ses écosystèmes, préparation aux crises d'origines naturelle ou anthropique). Pour cela, Copernicus s'appuie sur la technologie spatiale et les moyens au sol des pays membres du programme et développe une constellation de satellites appelés Sentinels. Les images acquises par ces satellites sont en accès total, ouvert et gratuit.
Le capteur d'un satellite en orbite autour de la Terre observe une portion de sa surface appelée fauchée. La fauchée correspond à une bande d'une certaine largeur à la surface de la Terre, qui suit la trace du satellite. Elle varie généralement de quelques kilomètres à quelques centaines de kilomètres.
Ci-dessous, la fauchée du satellite est schématisée en orangé.
Une image satellitaire, selon les caractéristiques du capteur embarqué sur le satellite, peut contenir en plus des trois bandes du visible (RVB) quelques bandes supplémentaires (par exemple infrarouge, proche infrarouge), et jusqu’à des centaines de bandes. Ces bandes vont couvrir des intervalles plus ou moins large du spectre électromagnétique. On parle ainsi d’images multi-spectrales (quelques bandes) ou d’images hyper-spectrales (des dizaines à des centaines de bandes).
PEPS est la Plateforme française (opérée par le CNES) d'accès libre et gratuit aux données des satellites Sentinels du programme européen Copernicus. Peps a pour objectif de promouvoir l'utilisation des données spatiales Sentinel, stimuler leur utilisation par les entreprises et scientifiques français.
La réflectance est une grandeur qui traduit la proportion de lumière réfléchie par la surface d'une cible. Elle est définie comme le rapport entre le flux lumineux réfléchi et le flux lumineux incident et s'exprime généralement en pourcentage.
La résolution spatiale est la taille du plus petit élément qu’il est possible de distinguer sur l’image. Elle est également couramment définie comme étant la taille du pixel. Sur une image, les objets qu'il sera possible de discerner dépendront de la résolution spatiale du capteur utilisé. Généralement, plus la résolution spatiale augmente, plus la superficie de la surface visible par le capteur diminue : une image très haute résolution couvrira une portion de territoire plus restreinte qu'une image moyenne résolution. Au moment du choix des images à traiter, il convient donc de choisir le bon compromis selon la taille des objets les plus petits que l'on veut observer, et l'échelle à laquelle on souhaite observer un processus.
La résolution spectrale décrit la capacité d'un capteur à utiliser de petites fenêtres de longueurs d'onde. Plus la résolution spectrale est fine, plus les fenêtres des différents canaux du capteur sont étroites (définition RNCAN).
Lorsqu’elles sont soumises à une source d’énergie, différentes cibles ont différents comportements. La variation de la réflectance en fonction de la longueur d’onde est appelée signature spectrale.
Appliquée à l’observation de la Terre, la télédétection désigne la technique d’acquisition d’images et les techniques de traitement de ces images dans le but d’obtenir des informations sur la surface de la Terre, sans contact direct avec celle-ci.
Appliquée à l’observation de la Terre, la télédétection désigne la technique d’acquisition d’images et les techniques de traitement de ces images dans le but d’obtenir des informations sur la surface de la Terre, sans contact direct avec celle-ci.
En observation de la Terre on peut exploiter des ondes émises par le soleil puis réfléchies par la surface de la Terre et enregistrées par un capteur placé sur un satellite ou des ondes émises un émetteur artificiel placé sur le satellite puis réfléchies par la surface de la Terre et enregistrées par un capteur placé sur ce même satellite. Dans le premier cas on parle de télédétection passive et d’images optiques, dans le second cas de télédétection active et d’images radar.
Ce contenu est aussi disponible en fiches au format pdf Fiche "Comprendre une image satellitaire" Fiche "Contexte"
Les mots pour désigner les données présentées dans ce visualiseur sont nombreux (données de télédétection, produits satellitaires, imagerie spatiale...).
Techniquement, il est important de retenir que l’acquisition et le traitement de toutes ces données s’appuient sur un même principe, le principe de télédétection. Le principe de télédétection peut être schématisé ainsi : la surface de la Terre reçoit un rayonnement (par exemple émis par le soleil) et le réfléchit vers l’espace. Le rayonnement réfléchi est enregistré par un capteur (par exemple à bord d’un satellite), converti en données numériques, renvoyées à une station de réception située sur Terre. Ces données numériques, ou images, sont ensuite analysées et traitées afin d’en extraire des informations utiles.
Ainsi, la télédétection permet d’acquérir des informations sur la surface de la Terre, inédites et complémentaires de celles déjà couramment utilisées (données in situ, données statistiques, etc.). On peut par exemple cartographier et suivre l'évolution de la végétation, des surfaces bâties, des parcelles agricoles, obtenir des informations sur l'humidité des sols, sur la température de surface de la Terre, etc. Autant d'informations utiles pour établir des diagnostics et/ou orienter et évaluer des politiques locales en aménagement du territoire.
Télédétection
Appliquée à l’observation de la Terre, la télédétection désigne la technique d’acquisition d’images et les techniques de traitement de ces images dans le but d’obtenir des informations sur la surface de la Terre, sans contact direct avec celle-ci.
Ce processus de transformation des images en informations ou services utiles et utilisables par des entreprises, administrations et citoyen est souvent présenté comme une « chaîne de valeur » qui fait intervenir des acteurs très variés, mobilisant différentes disciplines, œuvrant dans différents secteurs et qui ont chacun leurs habitudes de travail et leur vocabulaire. Cette chaîne de valeur est qualifiée par les acteurs du secteur spatial de chaîne « aval » par opposition à toute la chaîne « amont » (étapes de conception et de lancement des satellites et capteurs, réception des images). Par déclinaison on parle donc de produits, services et applications aval pour qualifier les produits présentés dans ce visualiseur.
La transformation d’images en produits est généralement testée dans un premier temps sur des portions de territoire restreintes sur lesquelles les chercheurs disposent de jeux de données importants (images satellitaires, photographies aériennes, relevés terrains, etc.). On parle alors de « preuve de concept » : les chercheurs testent de nouveaux algorithmes et publient les méthodes mobilisant des images satellitaires permettant de répondre à une question donnée sur un territoire. Mais pour passer à une phase opérationnelle, il est nécessaire de généraliser ces méthodes et produits sur de plus vastes territoires, on parle alors de « mise en production ». Cette dernière soulève de nombreux enjeux : adaptation de méthodes à d’autres territoires, besoin de données terrain (in situ), traitement de jeux de données très volumineux, etc.
L'imagerie satellitaire (aussi appelée imagerie spatiale) désigne la prise d'images depuis l'espace, par des capteurs placés sur des satellites. Visuellement, les images satellitaires ressemblent beaucoup à des photos, mais elles contiennent bien plus d'informations. Cet article propose d'aborder (de façon simplifiée) les notions essentielles pour savoir lire une image de télédétection.
En préalable, quelques notions sur le rayonnement
Pour comprendre les informations que contiennent différents types d’images satellitaires, rappelons quelques notions sur les ondes électromagnétiques.
Le soleil émet un rayonnement qui se propage sous forme d’ondes. Ces ondes traversent l’espace puis l’atmosphère avant d’arriver à la surface de la Terre où une part d’entre elles est réfléchie vers l’espace.
Ce rayonnement et les différentes ondes qui le composent sont représentés sous la forme d’un spectre électromagnétique. Les ondes sont caractérisées par leurs longueurs d’onde et leurs fréquences (deux grandeurs inversement proportionnelles). On parle par exemple de grandes ondes, de micro-ondes, d’ultraviolet, d’infra-rouge, etc. Dans le spectre visible, chaque couleur perçue par notre œil correspond à un intervalle de longueur d’onde.
Le soleil n’est pas la seule source de rayonnement électromagnétique, de nombreuses autres sources émettent des ondes, qu’elles soient visible ou non. Les domaines d'application du spectre électro magnétique sont nombreux : on utilise les ondes micro-ondes pour chauffer ou cuire des aliments, les rayons X pour les radiographies médicales, les rayonnements infrarouges émis par les être vivants pour observer des animaux de nuit, etc.
Image optique et image radar
En observation de la Terre on peut exploiter :
des ondes émises par le soleil puis réfléchies par la surface de la Terre et enregistrées par un capteur placé sur un satellite ;
des ondes émises par un émetteur artificiel placé sur le satellite puis réfléchies par la surface de la Terre et enregistrées par un capteur placé sur ce même .
Dans le premier cas on parle de télédétection passive et d’images optiques, dans le second cas de télédétection active et d’images radar.
La télédétection radar présente l’avantage de :
s’affranchir des contraintes de couverture nuageuse : les ondes émises par les satellites traversent les nuages ;
pouvoir acquérir des images de jour comme de nuit.
En revanche, leur exploitation pour l’observation de la Terre est moins intuitive et une expertise est nécessaire pour interpréter des images qui ressemblent bien moins à une photo que les images optiques.
Ainsi, différents domaines spectraux sont exploités en télédétection optique (longueurs d’onde du visible à l’infrarouge) et en télédétection radar (micro-ondes ou plus couramment appelées hyperfréquences dans le domaine de la télédétection).
Images satellitaires et résolution spatiale
Lorsque l’on prend une photographie classique, l’information est traduite par des formes et des couleurs, qui correspondent à des groupes de pixels plus ou moins homogènes. Sur une même scène photographiée prise par deux appareils, plus les pixels seront nombreux dans l’image plus la résolution spatiale sera élevée. On le voit aisément lorsque l’on souhaite faire un agrandissement et que l'on voit apparaître les pixels en zoomant sur une image.
Il en va de même pour une image satellitaire : selon les caractéristiques du capteur, l’altitude du satellite (donc son orbite autour de la Terre), les images seront composées de pixels couvrant une surface au sol plus ou moins grande du sol. On classera ainsi les images enregistrées en images :
Basse résolution
Moyenne résolution
Haute résolution (HRS)
Très haute résolution (THRS)
Les images composées de pixels sont appelées des images "raster", à la différence des images "vecteur", composées de points, lignes et surfaces auxquels sont associés des attributs.
Résolution spatiale
La résolution spatiale est la taille du plus petit élément qu’il est possible de distinguer sur l’image. Elle est également couramment définie comme étant la taille du pixel. Sur une image, les objets qu'il sera possible de discerner dépendront de la résolution spatiale du capteur utilisé. Généralement, plus la résolution spatiale augmente, plus la superficie de la surface visible par le capteur diminue : une image très haute résolution couvrira une portion de territoire plus restreinte qu'une image moyenne résolution. Au moment du choix des images à traiter, il convient donc de choisir le bon compromis selon la taille des objets les plus petits que l'on veut observer, et l'échelle à laquelle on souhaite observer un processus.
En SIG, les vecteurs sont souvent utilisés pour la cartographie. Ils permettent de simplifier une représentation d'un territoire. Certains rasters sont couramment utilisés comme les photographies aériennes, les Modèles numériques de terrain (MNT), ou la couche adresse du BD Parcellaire.
Quelle grandeur utilise-t-on pour les valeurs des pixels ?
En télédétection, la grandeur utilisée pour décrire la « teinte » des pixels est la réflectance (on parle de réflectivité pour les images radar). La réflectance va traduire le comportement d’une surface lorsqu’elle qu’elle reçoit les rayons du soleil. Soumise à un rayonnement, une surface (la cible) va en partie :
l’absorber
le transmettre aux surfaces sous-jacentes
le réfléchir vers le ciel. C’est cette part réfléchie qui est enregistrée par les capteurs des satellites.
La réflectance
La réflectance est une grandeur qui traduit la proportion de lumière réfléchie par la surface d'une cible. Elle est définie comme le rapport entre le flux lumineux réfléchi et le flux lumineux incident et s'exprime généralement en pourcentage.
Dans cet article nous ne rentrons pas dans les détails des définitions et calculs de grandeurs utilisées en télédétection, pour approfondir, vous pouvez consulter cet article du Cesbio.
Images satellitaires et résolution spectrale
Dans une images satellitaire, l’information sur les couleurs est contenue dans différents canaux ou bandes spectrales. Chaque bande est une image en niveaux de gris, composée de pixels ayant chacun une valeur de réflectance pour un intervalle de longueur d’ondes donné. On parle ainsi de "bande du bleu", du "rouge, du proche infrarouge", etc. Chaque bande va couvrir une portion plus ou moins large du spectre électro magnétique. Par exemple, la bande du bleu correspond à des longueurs dans un intervalle autour de 480 nm, celle du rouge autour de 600 nm.
Pour reprendre l'analogie avec une photographie classique, dans une photo, l’information sur les couleurs est contenue dans 3 bandes : la bande des longueurs d’ondes correspondant à la couleur bleue (B pour bleu ou blue), verte (V pour vert ou G pour green) et rouge (R pour rouge ou red). On voit ainsi souvent les acronymes RVB et RGB dans les logiciels de traitement de photos. Chacune de ces trois bandes est en niveau de gris.
Bande spectrale / Canal spectral
Chaque bande spectrale est une image raster en niveau de gris qui représente les valeurs de réflectance des surfaces au sol pour un intervalle de longueurs d’ondes donné.
Prenons l'exemple des images ci-contre. L'illustration montre 3 images de la rade de Lorient (voir plan ci-dessus pour vous repérer), correspondant chacune à une bande spectrale. Les valeurs de réflectance changent selon l'intervalle de longueur d'onde considéré. Dans l'intervalle de longueur d'onde correspondant aux couleurs vertes et du rouges, la végétation a des valeurs de réflectance basses, alors qu'elle a des valeurs élevée dans l'intervalle des longueurs d'onde de l'infrarouge. L'eau a des valeurs de réflectance basse dans les 3 bandes. Pour information, les variations de valeur de réflectance de l'eau correspond aux matières en suspension qu'elle transporte.
Une image satellitaire, selon les caractéristiques du capteur embarqué sur le satellite, peut contenir en plus des trois bandes du visible (RVB) quelques bandes supplémentaires (par exemple infrarouge, proche infrarouge), et jusqu’à des centaines de bandes. Ces bandes vont couvrir des intervalles plus ou moins large du spectre électromagnétique. On parle ainsi d’images multi-spectrales (quelques bandes) ou d’images hyper-spectrales (des dizaines à des centaines de bandes).
Résolution spectrale
La résolution spectrale décrit la capacité d'un capteur à utiliser de petites fenêtres de longueurs d'onde. Plus la résolution spectrale est fine, plus les fenêtres des différents canaux du capteur sont étroites (définition RNCAN).
On peut représenter les valeurs de réflectance des bandes selon un graphique, avec en abscisse les longueurs d'onde du spectre électromagnétique, et en ordonnée les valeurs de réflectance en %. On illustre ainsi la nature de l'information contenue dans une images satellitaire composée de plusieurs bandes ou canaux. Sur le premier graphique, le capteur embarqué sur le satellite va enregistrer peu d'information sur les caractéristiques spectrales des cibles (visible sur les pixels) : l'image sera composée de 4 bandes, qui couvriront chacune un intervalle de longueur d'onde assez large. Dans le second cas, le capteur va enregistrer une grande quantité d'information spectrale : pour chaque couleur, plusieurs bandes sont enregistrées. Non seulement le nombre de bandes est plus élevé, mais en plus chaque bande traduit des valeurs de réflectance pour de petits intervalles de longueur d'onde.
Généralement, une très haute résolution spectrale est possible au détriment de la résolution spatiale. Les images hyperspectrales sont par exemple très intéressantes pour discriminer des espèces végétales différentes. Tout l'intérêt est de pouvoir combiner les 2 types d'images, ce qui soulève des questions méthodologies.
L'affichage des images en couleur
Sur une image classique, on reconstitue à l’écran ce que notre œil voit en affectant un filtre coloré correspondant à la "vraie" couleur de chaque bande, (c’est le principe de la synthèse additive : toutes les couleurs du spectre visible additionnées, ou les 3 couleurs primaire additionnées donnent de la lumière blanche). On parle alors de composition colorée vraies couleurs. Le principe est le même pour les images satellitaires, si l'on souhaite afficher une images optique telle que notre œil verrait la Terre depuis le ciel, on affectera aux trois bandes du visible bleu, du vert et du rouge leurs vraies couleurs.
Sur l'illustration ci-après (toujours la rade de Lorient), sur la composition colorée vraie couleur la ville apparaît avec des couleurs blanches et grises, l'eau dans différentes teintes de bleu, et la végétation en vert foncé : on a recréé ce que verrait notre œil.
Le principe est le même pour les images satellitaires, si l'on souhaite afficher une images optique telle que notre oeil verrait la Terre depuis le ciel, on affectera aux trois bandes du visible bleu, du vert et du rouge leurs vraies couleurs.
Le principe de la composition colorée
La réalisation d'une composition colorée consiste à attribuer à chaque couleur primaire (rouge, vert et bleu) trois bandes spectrales d'un capteur satellitaire. Par synthèse additive, il est possible de reconstituer toutes les couleurs. Cela permet de faciliter l'interprétation des images satellitaires et de mettre en évidences des phénomènes environnementaux.
En faisant cela, on ne visualise pas les informations contenue dans d’autres bandes que les bandes Rouge-Vert-Bleu, informations non visibles par l'œil humain. De manière conventionnelle en observation de la terre, on affecte à la bande du proche infrarouge un filtre rouge, à la bande du rouge un filtre verte et à la bande du vert un filtre bleu. On parle alors de composition colorée "fausses couleurs". Dans cette représentation, les informations contenues dans la bande du bleue ne sont pas représentées. Peu intuitive au départ, cette représentation a l’avantage de rendre visible des informations non visibles à l’œil nu, et de bien discriminer surfaces minérales et surfaces végétales. Différentes compositions colorées fausses couleurs sont utilisées selon les disciplines et selon l'objet que l'on souhaite faire ressortir à l'image.
Sur cette composition colorée fausses couleurs, la végétation apparaît en rouge, les surfaces minérales et le bâti en bleu, gris et cyan, l'eau claire en noir, et l'eau chargée en matières en suspension d'origine minérale en bleu et gris (comme le bâti). Si l'eau avait été chargée de micro-algues, on aurait vu des zone plus rouges dans l'eau (comme la végétation).
Comment distingue-t-on différents types de couverture du sol sur une image ?
Soumise à un rayonnement, différentes cibles auront des comportements différents : des cibles de même nature absorberont ou réfléchiront davantage certaines longueur d'ondes. Des cibles de nature différente auront pour un même intervalle de longueur d'onde (donc une même bande spectrale) des comportements différents. En étudiant la nature du spectre réfléchi par une cible, on peut obtenir des informations sur cette cible, sur sa nature, son état.
Par exemple, les feuilles d’une plante en bonne santé vont absorber les longueurs d’onde du rouge et du bleu (pour les besoins physiologiques de la plante, puisque les végétaux convertissent l'énergie lumineuse en énergie chimique par le processus de photosynthèse), et réfléchir les longueurs d’ondes du vert. Ainsi, nous voyons les feuilles de couleur verte. Au-delà du domaine du visible, la végétation réfléchi de manière très importante les longueurs d’ondes de l’infrarouge et du proche infrarouge (PIR). C'est pour cela que sur l'image des la rade de Lorient, la végétation apparaissait en blanc sur l'image de la bande PIR. Autrement dit, les valeurs de réflectance de la végétation sont élevées dans la bande du PIR.
Il est possible de caractériser des cibles de différente nature selon leur réponse spectrale à différentes longueur d'onde. On parle de signature spectrale d'une cible (ou d'un type de surface). On peut représenter graphiquement les signatures spectrales des principaux matériaux.
Signature spectrale
Lorsqu’elles sont soumises à une source d’énergie, différentes cibles ont différents comportements. La variation de la réflectance en fonction de la longueur d’onde est appelée signature spectrale.
Sur le graphique sont schématisées la signature spectrale d'un sol nu, de la végétation et de l'eau. On voit que certaines bandes permettent de mieux discriminer différents types de couverture du sol.
Lorsque l'on étudie des images satellitaires, on dispose en réalité d'une information discrète. On peut l'illustrer en superposant l'illustration de la résolution spectrale des images et les signatures spectrales.
Sur cette illustration simplifiée, on voit que certaines longueurs d'ondes sont plus discriminantes que d'autres pour des types de cibles donnés : la végétation a des valeurs très élevées dans la bande du PIR. Néanmoins, des confusions peuvent apparaître : dans cette même bande, un sol nu aura aussi les valeurs de réflectance élevées. La partie traitement des images visera à exploiter conjointement les valeurs de réflectance dans les différentes bandes pour en extraire une information pertinente au regard d'une problématique. Ceci fera l'objet d'un autre article sur les méthodes de traitement des images.
Retrouvez sur la page Pôle métier Télédétection de GéoBretagne le tutoriel pas à pas pour afficher les images Sentinel-2 dans QGIS