photogrammétrie

141
Photogrammétrie & imagerie géomatique HEIGVD, G2C F. Gervaix, février 2010 Éléments de photogrammétrie Cours de photointerprétation

Upload: youness

Post on 30-Dec-2014

200 views

Category:

Documents


34 download

TRANSCRIPT

Page 1: photogrammétrie

Photogrammétr ie & imager ie géomat ique

HEIG‐VD, G2C F. Gervaix, février 2010

Éléments de photogrammétrie

Cours de photo‐interprétation

Page 2: photogrammétrie

HEIG‐VD, G2C 2 / 141 F. Gervaix, février 2010

Table des matières 1. Avant‐propos, buts et plan du cours 5

1.1. Avant‐propos 5 1.2. Buts du cours 7 1.3. Plan du cours et calendrier 10

2. Introduction 11 2.1. Qu’est‐ce que la photogrammétrie ? 11 2.2. Matériel de base 11 2.3. Types d’utilisation 11 2.4. Photogrammétrie et environnement 12

3. Définition et historique 13 3.1. Définition de la photogrammétrie 13 3.2. Historique 14 3.3. « Types » de photogrammétrie 15 3.4. Notions de base 16 3.5. Notion de résolutions 18 3.6. Catalogage des images numériques 21 3.7. Images numériques par caméras aéroportées 22 3.8. Problématique des dévers 23

4. Aspect matériel 27 4.1. Caméras analogiques (ou « film ») 27 4.2. Caméras numériques « moyen format » 29 4.3. Caméras numériques « grand format » 30 4.4. Tour d’horizon des utilisateurs 36

5. Mesures GPS et inertielles pour la photogrammétrie 37 5.1. GPS 37 5.2. GPS et IMU combinés 41 5.3. Flux des tâches habituel 43 5.4. Points d’appui (GCP) 44

6. Déroulement d’un chantier photogrammétrique 46 6.1. Travaux préparatoires 46 6.2. Plan de vol 50 6.3. Exécution du vol 56 6.4. Scannérisation et suite 57 6.5. Résumé 58

7. Logiciels photogrammétriques 59 7.1. Introduction aux logiciels photogrammétriques 59

Page 3: photogrammétrie

HEIG‐VD, G2C 3 / 141 F. Gervaix, février 2010

7.2. Leica Geosystems LPS 59 7.3. BAE Systems Socet Set 60 7.4. KLT Associates Atlas 60

8. Aérotriangulation 61 8.1. Les différentes orientations 61 8.2. Aérotriangulation 64 8.3. Rotations dans l’espace 68

9. MNT par photogrammétrie 72 9.1. Introduction 72 9.2. Définitions 72 9.3. Spécifications 73 9.4. MN_: représentations 74 9.5. Comparaison Grille <> TIN 74 9.6. Mesure de Z = mesure de la parallaxe x 75 9.7. Modes de création d’un MNT 76 9.8. Passage du MNS MNT 77 9.9. Passage de Grille TIN 77 9.10. MNT‐MO et MNS 78

10. Scanners laser aéroportés (LiDAR) 79 10.1. Introduction 79 10.2. Fonctionnement 79 10.3. Données laser 80 10.4. Définitions 81 10.5. Notion de nuage de points (3D) 81 10.6. Géométrie du LIDAR 83 10.7. Les échos multiples 84 10.8. Considérations de résolution 86 10.9. Résumé des caractéristiques principales 86 10.10. Exemples d’applications 87 10.11. Exemple d’équipement: Leica ALS50 88 10.12. Performances 90 10.13. Précision obtenue 91 10.14. Étalonnage du système 91 10.15. Logiciels pour le LiDAR 92 10.16. Flux des données et des tâches 94 10.17. Glossaire des termes LIDAR (en anglais) 94

11. Orthomosaïque 96 11.1. Introduction 96

Page 4: photogrammétrie

HEIG‐VD, G2C 4 / 141 F. Gervaix, février 2010

11.2. Procédé 97 11.3. Enjeux 97 11.4. Critères et facteurs de qualité 99 11.5. Confection des orthophotos numériques 100 11.6. Principe et production de l’orthophotographie 103 11.7. True Ortho™ (ou ortho intégrale) 106 11.8. Lignes de raccord 108 11.9. Égalisation radiométrique 110

12. Restitution vectorielle (3D) 111 12.1. Définitions 111 12.2. Éléments de base 111 12.3. Matériel nécessaire 114 12.4. Modélisation 116

13. Télédétection 118 13.1. Photogrammétrie et télédétection 118 13.2. Éléments de base 119 13.3. Synthèse fauchée / résolution 121 13.4. Analyse des données de la TD 121 13.5. Satellites 122 13.6. Orbite 125 13.7. Période 127 13.8. Orbite héliosynchrone 128 13.9. Satellites utilisés en télédétection 130

14. Bibliographie 139 15. Éléments numériques utiles 140 16. Curriculum Vitae 141

Page 5: photogrammétrie

HEIG‐VD, G2C 5 / 141 F. Gervaix, février 2010

1. Avant‐propos, buts et plan du cours

1.1. Avant‐propos La photogrammétrie est une matière passionnante, variée et spectaculaire, mariant géométrie et esthétique, offrant une vision différente de notre environnement. Ce support de cours a l’intention d’en donner un aperçu le plus complet et réaliste possible, sans pour autant être exhaustif.

1.1.1 Motivation

Durant ces 10 dernières années, la photogrammétrie a vécu un tournant technologique important : le passage au tout numérique et l'arrivée sur le marché d’images satellites haute résolution.

Le chamboulement engendré est comparable à l’introduction du système de positionnement mondial GPS durant les années nonante. De telles situations se caractérisent par des évolutions technologiques rapides, une adaptation souvent superficielle des méthodes de travail et à une obsolescence accélérée du matériel et des logiciels. Les critères de qualité sont souvent bafoués, la désorientation de l’utilisateur (et parfois du producteur !) est palpable et le besoin de nouveaux repères, standards, normes, etc. est évident.

Pour aller un peu plus loin dans la réflexion, on peut lire l’éditorial du Géomatique Suisse de septembre 2009 écrit par le Prof. Dr. Stephan Nebiker « Photogrammétrie et télédétection – une diversité florissante d’espèces ». Dans la même parution, l’article du Dr. Roland Stengele « Geodaten aus de Luft : aktueller Status, Trends und Ausblick » brosse un portrait actuel et saisissant du domaine.

1.1.2 Rôle de la photogrammétrie

Dans le monde de la géoinformation se dessinent quelques tendances ayant une influence directe sur la mise en œuvre de la photogrammétrie :

• importance croissante des orthophotos

o exemple : généralisation des globes virtuels et serveurs de « cartes »

• augmentation des besoins en modèles numériques de terrain précis

o exemple : MNT‐MO / MNS par LiDAR

• tendance au SIG en 3D et demande accrue de modèles urbains 3D

o exemple : « Bâti 3D » à Genève, MTP au niveau national

• besoin de mise à jour, spécialement dans les secteurs non bâti

o exemple : projet SAU (actualisation des surfaces agricoles utiles)

On peut réagir efficacement et économiquement à ces tendances – et à la demande croissante des produits concernés – à l'aide de la photogrammétrie numérique.

L’intitulé du cours est quelque peu ambigu : il traite un peu de photogrammétrie et beaucoup d’imagerie au sens large. L’évolution technologique de ces 15 dernières années a dynamisé une discipline qui était très mécanique et optique, lente, coûteuse, parfois austère. Aujourd’hui, il est possible de faire de la photogrammétrie à petit budget, même si les logiciels dédiés restent coûteux (petit marché, peu d’effet d’échelle).

Les éléments essentiels qui seront traités durant ce cours sont :

- Culture géomatique générale (unités, systèmes de références, systèmes de projection)

- Mathématiques (trigonométrie, calcul matriciel, statistiques)

Page 6: photogrammétrie

HEIG‐VD, G2C 6 / 141 F. Gervaix, février 2010

- Physique (radiations électromagnétiques ; optique géométrique, physiologique et atmosphérique)

- Capteurs optiques (notions fondamentales, photographie, scanners et LiDARs)

- Acquisition de données optiques (bases ; acquisition terrestre, aérienne et satellitaire)

- Traitement d’images numériques (images numériques, transformation d’images, visualisation)

- Photogrammétrie (traitement d’une image, d’une paire d’images, d’une multitude d’images)

- Télédétection optique (techniques multispectrales et thermiques)

- Télédétection par micro‐ondes (micro‐ondes, techniques RaDARs)

- Modélisation (modèle 3D, représentation)

Ces 10 thèmes correspondent aux 10 chapitres de la bible de la photogrammétrie et de la télédétection de Albertz & Wiggenhagen (voir bibliographie). Ils seront traités de façon variable en fonction de l’utilité immédiate des concepts.

Page 7: photogrammétrie

HEIG‐VD, G2C 7 / 141 F. Gervaix, février 2010

1.2. Buts du cours Statistiquement, très peu d’entre vous travailleront plus tard dans la photogrammétrie. Par contre, tous ou presque utiliseront des produits de la photogrammétrie. Il est donc important de connaître comment ces produits sont obtenus et, une fois au moins, les avoir réalisés, ne serait‐ce que pour ce rendre compte de leur complexité. C’est donc cette volonté qui conduit aux buts suivants :

1.2.1 Acquérir la nomenclature usuelle

Comme dans chaque discipline, la photogrammétrie possède son langage propre, qui peut différer légèrement des disciplines voisines. L'ingénieur doit savoir s'exprimer, par écrit et par oral, en utilisant les mots justes et ce, idéalement dans une, deux ou trois langues.

1.2.2 Comprendre ce qu’est la photogrammétrie

La photogrammétrie a une position centrale dans la géomatique, non pas qu’elle soit indispensable aux autres disciplines de la géomatique, mais bien car faisant appel à de nombreuses connaissances et techniques des autres disciplines. Il s'agit donc de bien identifier ces interactions, être capable de passer d'une discipline à l'autre, de les « décloisonner ». L’illustration (Figure 1) ci‐dessous symbolise ces liens étroits.

Orthophoto

Scanner laser

LiDAR

SIG

Traitement

d’image

géométrie

radiométrie

Topométrie

Visualisation3D

Modélisation

Méthodes

d‘estimation

vecteur

raster

Images

satellites

Comp. par bloc

Géodésie

GPS / INS

Télédétection

MNT / MNS

OrthophotoOrthophotoOrthophoto

Scanner laser

LiDAR

Scanner laser

LiDAR

SIGSIG

Traitement

d’image

Traitement

d’image

géométriegéométrie

radiométrieradiométrie

TopométrieTopométrie

Visualisation3D

Modélisation

Visualisation3D

Modélisation

Méthodes

d‘estimation

Méthodes

d‘estimation

vecteurvecteur

rasterraster

Images

satellites

Images

satellites

Comp. par blocComp. par bloc

Géodésie

GPS / INS

Géodésie

GPS / INS

TélédétectionTélédétectionTélédétection

MNT / MNSMNT / MNS

Figure 1 : Liens étroits entre la photogrammétrie et les autres disciplines de la géomatique

Page 8: photogrammétrie

HEIG‐VD, G2C 8 / 141 F. Gervaix, février 2010

1.2.3 Appliquer les principes, méthodes et techniques dans des cas pratiques

Face à une problématique globale, l’ingénieur doit être capable de décomposer celle‐ci en des problèmes spécifiques. « Un problème identifié est un problème à moitié résolu » est le mot d’ordre. Des difficultés technologiques peuvent se présenter (disponibilité des données, logiciel récalcitrant, taille des données, interprétation des résultats), mais une exécution partielle sur un échantillon ou un calcul a priori doit permettre de donner l’essentiel de la réponse.

1.2.4 Analyser les ingrédients, les outils et les produits de la photogrammétrie

La position centrale de la photogrammétrie nécessite de bien connaître les éléments en amont et en aval.

La photogrammétrie est composée d’une suite de processus qui peut se résumer ainsi :

• acquisition : plan de vol, aspect matériel

• géoréférencement : GPS & IMU, aérotriangulation, points au sol

• restitution : MNT, extraction vectorielle 3D, orthophoto, géométrie

• interprétation : analyse d’image, classification, SIG, fausses couleurs, orthophoto, radiométrie

• présentation : visualisation 3D, SIG, réalité virtuelle, Web.

Ce découpage ou chronologie est basé sur une réflexion qui avait été faite chez Leica Geosystems Geospatial Imaging en 2002. La réflexion avait mené à cette représentation graphique :

C’est avec un plaisir non dissimulé que sept ans plus tard on retrouve le concept… pour Leica Geosystems dans son ensemble !

Figure 3: Site Web de Leica Geoystems

(http://www.leica‐geosystems.com/en/Our‐Company‐Breadth_24312.htm)

Une illustration de ce processus (« work‐flow ») par un exemple très actuel et caractéristique se trouve dans le travail de Bachelor 2009 de Sébastien Monnier dont voici l’élément central :

Figure 2: LGGM, 2002

Page 9: photogrammétrie

HEIG‐VD, G2C 9 / 141 F. Gervaix, février 2010

Page 10: photogrammétrie

HEIG‐VD, G2C 10 / 141 F. Gervaix, février 2010

Dans de nombreuses situations, il n’y a pas une réponse juste et des réponses fausses. L’inventaire de variantes et le choix de la meilleure (ou de la moins mauvaise…) solution nécessite certes de l’expérience, mais aussi et surtout une rigueur dans la sélection des critères et l’examen de ces derniers.

1.3. Plan du cours et calendrier

1.3.1 Déroulement 2010

6 séances à 2 périodes = 12 périodes / 9 heures.

Mardi S N° Contenu Chapitres Exercice

23.01.10 8 1 Introduction, notions et principes de base, aspect matériel (argentique)

1, 2, 3, 4a

02.03.10 9 2 Aspect matériel (numérique), déroulement d’un chantier phot.

4b, 5, 6, 7, 8

16.03.10 11 3 MNT par photogrammétrie, scanners lasers aéroportés

9, 10

23.03.10 12 4 Production d’orthomosaïque, ADS40/80 11, 4c

13.04.10 15 5 Restitution vectorielle, modélisation 3D, True Ortho

12

20.04.10 16 6 Imagerie satellitaire, télédétection 13 Test écrit

Chapitres utilitaires: 14, 15, 16

Page 11: photogrammétrie

HEIG‐VD, G2C 11 / 141 F. Gervaix, février 2010

2. Introduction

2.1. Qu’est‐ce que la photogrammétrie ? « Toute technique de mesure qui permet de modéliser un espace 3D en utilisant des images 2D » Photogrammétrie numérique, ENSG IGN

« Une technique de mesure pour laquelle les coordonnées en trois dimensions des points d'un objet sont déterminées par des mesures faites en deux images photographiques (ou plus) prises à partir de positions différentes » Wikipedia

Mais la photogrammétrie n’est pas qu’une technique de mesure et de calcul plus ou moins sophistiquée. C’est un ensemble de domaines où se mélangent la précision et l’esthétique, l’infiniment grand et l’infiniment petit.

2.2. Matériel de base Il s’agit en général d’un document photographique, c'est‐à‐dire un enregistrement de l’intensité et de la couleur des radiations du spectre visible ou invisible, réfléchie par l’objet considéré.

La photographie est une technique permettant de fixer une image sur une surface sensible à l'aide de la lumière et des objets qui la reflètent.

Le mot image, du latin imago, désigne la représentation visuelle d'un objet par différents moyens ou supports, dessin, image numérique, peinture, photographie, etc.

A ce stade, on se rend compte de la multitude et de la variété dans le matériel de base.

2.3. Types d’utilisation On peut classer les utilisations du matériel de base en deux catégories :

Une approche radiométrique, où la nature de l’objet est étudiée.

Une approche géométrique, où la forme de l’objet est étudiée.

La première catégorie est plus couramment appelée photo‐interprétation ou télédétection ( remote sensing / Fernerkundung ). C’est là qu’on trouve la plus grande variété dans le matériel de base.

La deuxième catégorie est la photogrammétrie à proprement parlé (détermination de la forme et des dimensions d’un objet). Le matériel de base est assez limité car très spécifique.

Les deux domaines étaient historiquement assez éloignés. Mais plus récemment, un rapprochement évident s’est produit et la différenciation n’est maintenant plus aussi aisée. L’apparition du numérique a modifié les habitudes de travail et a conduit a ce rapprochement.

Page 12: photogrammétrie

HEIG‐VD, G2C 12 / 141 F. Gervaix, février 2010

2.4. Photogrammétrie et environnement Texte repris de l’invitation à la leçon d’honneur du Professeur Kölbl (EPFL), 20 décembre 2005 :

2.4.1 Photogrammétrie: Une technique par excellence pour la saisie de notre environnement

Catastrophes naturelles, sécheresse, manque de planifications : ces titres inondent la presse et nous insécurisent. Cependant, l'homme a aussi appris à se prémunir contre les forces de la nature, à construire des infrastructures solides et à créer un espace de vie en général fort agréable. Ce processus est toujours en cours et conditionne des actions et des mesures bien réfléchies afin de maîtriser tant les défis d'aujourd'hui que ceux du futur.

La géomatique englobe les sciences traitant de la saisie et de la gestion de notre espace de vie et fournit ainsi un instrument de planification de premier ordre dans son évolution mais aussi la sauvegarde de notre environnement. Si les cartes et les plans ne représentent qu'un nombre d'objets bien définis, les images aériennes et satellitaires permettent le recours à l'information primaire, l'interprète pouvant en extraire l'information spécifique à son travail sans dépendre des choix d'une présélection telle qu'elle est réalisée par exemple par le topographe lors de l'élaboration d'une carte. De plus, ces images ne se limitent pas à la représentation de l'état actuel mais les prises de vues archivées depuis environ 1930 pour les photos aériennes et depuis 1972 pour les images satellitaires permettent l'étude de processus de développement et l'incorporation de ce dynamisme dans le travail de planification. […]

source : www.cyber‐swift.com/photogrammetry‐services.html

Page 13: photogrammétrie

HEIG‐VD, G2C 13 / 141 F. Gervaix, février 2010

3. Définition et historique

3.1. Définition de la photogrammétrie En guise d’introduction, décortique‐on la définition de la photogrammétrie disponible sur l’encyclopédie libre Wikipedia.

Quelques éléments clé sont soulignés en raison de leur importance et discutés par la suite.

« La photogrammétrie est une technique de mesure pour laquelle les coordonnées en trois dimensions des points d'un objet sont déterminées par des mesures faites en deux images photographiques (ou plus) prises à partir de positions différentes. »

« Dans cette technique, les points communs sont identifiés sur chaque image. Une ligne de vue (ou rayon) peut être construite de la position de l'appareil photographique au point de l'objet. C'est l'intersection de ses rayons (triangulation) qui détermine la position tridimensionnelle du point. (…) »

« La photogrammétrie est utilisée dans différents domaines, tels que la production de cartes topographiques, l'architecture, les investigations de police, la géologie et par les archéologues pour reproduire rapidement des plans de sites vastes et complexes. » « Si les mêmes objets sont reconnus sur deux photos, constituant ainsi une photo en stéréoscopie, la mesure de la parallaxe (écart entre les deux images du même objet) indique de plus l'altitude de cet objet. »

« Les algorithmes de photogrammétrie se basent généralement sur un problème de minimisation de la somme des carrés d'un ensemble d'erreurs. (…) »

3.1.1 Commentaires

Page 14: photogrammétrie

HEIG‐VD, G2C 14 / 141 F. Gervaix, février 2010

3.2. Historique

3.2.1 Prises de vues

Wild C2 –1925

f = 165 mm, plaques de verre 10 x 15 cm

Dès 1950, négatifs sur film 18 x 18 cm.

Dès 1970, négatifs sur film 23 x 23 cm, noir et blanc, puis couleur.

Leica ADS40 – 2005

f = 63 mm, barrettes de CCD1 équivalentes à une matrice de 144 Mégapixels

1 CCD: Charge‐Coupled Device = DTC: Dispositifs à Transfert de Charge

Page 15: photogrammétrie

HEIG‐VD, G2C 15 / 141 F. Gervaix, février 2010

3.3. « Types » de photogrammétrie On peut cataloguer les applications photogrammétriques selon plusieurs critères : l’origine des images, le mode de traitement utilisé ou la géométrie.

• Images

o terrestres (axe ± horizontal, distance de 0 à 100 m)

o aériennes (axe ± vertical, distance de 100 à 10’000 m)

o spatiales / satellitaires (axe ± vertical, distance de 200 à 800 km)

• Traitements

o analogiques o analytiques o numériques

• Modèles mathématiques

o géométrie conique

o géométrie cylindro‐conique

3.3.1 Images terrestres, aériennes et spatiales

La différence la plus immédiate est certainement la résolution géométrique (taille réel d’un pixel). Mais les progrès technologiques diminuent les écarts et cette différence a tendance à ne plus être aussi significative.

Les images terrestres se différencient des autres principalement par la direction de la prise de vue qui est en général horizontale (ou proche de l’horizontale) alors que les images aériennes et spatiales sont verticales (plus précisément : nadirale).

Les images spatiales se différencient des autres principalement par leur largeur de champ qui est très étroite (≈ 1°), alors que les images terrestres et aériennes sont beaucoup plus larges (60 à 120°).

Pour le reste, ces images une fois « apprêtées » sont très semblables et sont traitées de façon similaire.

3.3.2 Traitements analogique, analytique et numérique

Le traitement analogique des photographies existe depuis l’origine de la photogrammétrie (début du XXème siècle). On citera par exemple la série des instruments Wild A (de A1 dès 1922 à A10 dès 1969 → 1984 et AG1 dès 1981 → 1990). Beaucoup d’appareils ont dépassé les vingt ans de service ! Ces instruments extrêmement complexes permettaient de recréer la position et l’orientation des photos au moment de la prise de vue. C’était des instruments essentiellement mécaniques et optiques.

Le traitement analytique des photographies a débuté à la fin des années 1960. On citera par exemple la série des instruments Kern DSR (de DSR1 dès 1980 à DSR 15 dès 1988) et les instruments Wild AC et BC (AC1 dès 1980, BC1 dès 1982 à BC3 dès 1989) et SD (SD2/3000 dès 1991, produits jusqu’en 2003). La position et l’orientation des photos étaient recrées par des formules mathématiques traitées par ordinateur. Ils sont parfois complétés par des systèmes interactifs graphiques, précurseurs des SIG.

Le traitement numériques des photographies à débuté au début des années 1990. Un élément essentiel est le scanner de précision pour film. On citera par exemple la série des scanners Leica DSW (de DSW100 dès 1989 à DSW700 dès 2004). C’est ce mode de traitement qui nous intéressera tout au long de ce cours.

Page 16: photogrammétrie

HEIG‐VD, G2C 16 / 141 F. Gervaix, février 2010

3.3.3 Géométrie conique et cylindro‐conique

La géométrie conique est la géométrie traditionnelle des prises de vues discrètes et séquentielles. Elle est aussi la géométrie de l’œil humain et de la photographie depuis son invention. On parle aussi de projection centrale ou « pyramidale ». Ses particularités seront étudiées en détail par la suite.

La géométrie cylindro‐conique est la géométrie des capteurs linéaires (à barrettes de CDD), très utilisés par les satellites (Landsat, Spot, Ikonos, …) et de nombreux capteurs de télédétection, pour une prise de vue continue. Plus récemment, cette géométrie a été adoptée pour le capteur aérien de Leica, l’ADS40 On parle aussi de balayage (« push‐broom »). Ses particularités seront étudiées en détail par la suite.

3.4. Notions de base Indépendamment du type de photogrammétrie considéré, certaines notions de bases, essentiellement conceptuelles, sont nécessaires.

3.4.1 Essence de la photogrammétrie

En reprenant la définition, on comprend que la photogrammétrie est l’art de passer de deux modèles 2D du paysage à un modèle 3D. De façon très raccourcie, on peut écrire :

2D + 2D = 3D

Ou, de façon graphique :

Figure 4: A partir d’objets 2D (des photographies), on obtient des objets 3D

Un élément important est qu’un objet doit être mesuré au moins deux fois en 2D pour être restituable en 3D. C’est un paramètre essentiel, le recouvrement entre photographies.

Page 17: photogrammétrie

HEIG‐VD, G2C 17 / 141 F. Gervaix, février 2010

3.4.2 Principe : géométrie conique

Figure 5: Projection centrale et recouvrement

O1 et O2 sont les centres de projection

La distance O1 ↔ O2 est appelée base b [mm] (dans l’espace image) ou B[m] (dans l’espace objet)

La distance O1 au plan objet est appelée hauteur H

La distance O1 au plan image est appelée distance principale ck (ou hauteur h)

Le rapport B/H ou b/ck est une caractéristique essentielle ; elle est conditionnée par l’ange d’ouverture (largeur de champ) et le recouvrement des deux photos. Il est identique dans l’espace objet et dans l’espace image.

Dans l’espace objet, on détermine la base en fonction de la hauteur.

H = 3000 m B = 780 m, B/H = 0.261 ou 1:3.8

Dans l’espace image, on règle la hauteur en fonction de la base.

b = 65 mm h = 250 mm

Ces deux valeurs ne sont pas anodines :

65 mm est l’écartement moyen entre les yeux d’un humain

250 mm est la punctum proximum de convergence (PPC), qui est le point le plus proche pour voir simple l'image des deux yeux (ou least distance of distinct vision LDDV)

1 La valeur du rapport B/H ne doit pas être confondue avec le recouvrement longitudinal. Le rapport B/H ne s’exprime jamais en %, éventuellement en « 1 sur … » (cf. 6.1.2 Focale de l’objectif, page 46). Le rapport B/H diminue quand le recouvrement augmente.

Page 18: photogrammétrie

HEIG‐VD, G2C 18 / 141 F. Gervaix, février 2010

3.5. Notion de résolutions La notion de résolutions est extrêmement importante, aussi bien en photogrammétrie pure et dure qu’en télédétection. Il faut bien faire la différence entre la résolution spatiale (ou géométrique) et la résolution spectrale (ou radiométrique).

La résolution spatiale peut être résumée par la taille du pixel au sol (GSD pour Ground Sampling Distance, taille d’échantillonnage au sol, taille d’un pixel dans l’espace objet), exprimée en mètres ou plus fréquemment en centimètres. Cette résolution spatiale est à ne pas confondre avec le nombre de pixels de la matrice CCD. C’est une notion également importante, mais qui ne suffit pas à elle seule pour appréhender un système. La course à la meilleure résolution spatiale est permanente.

La résolution spectrale peut être expliquée simplement par le nombre de canaux ou bandes spectrales acquis simultanément. Ce nombre varie de un (panchromatique, toutes les couleurs visibles résumées en un ton de gris), à plusieurs centaines pour des capteurs hyperspectraux tels que AVIRIS. La majorité des capteurs photogrammétriques acquièrent trois, quatre canaux (bleu, vert, rouge et parfois proche infrarouge).

[nm]

Figure 6: spectre électromagnétique visible

3.5.1 Résolution spatiale vs résolution spectrale

Figure 7: Domaines d'application et résolutions

A chaque application correspond une résolution spatiale et une résolution spectrale optimales. L’échelle logarithmique pour la résolution spatiale n’est pas superflue, car si on inclut les applications « extrêmes » comme la météorologie (résolution : 1 km) et l’inventaire d’objets historiques (résolution : 1 mm), on a une magnitude de 106. Les valeurs de résolution spectrale seront étudiées plus en détails en télédétection.

Page 19: photogrammétrie

HEIG‐VD, G2C 19 / 141 F. Gervaix, février 2010

Comme on le voit dans le graphique ci‐dessus, la résolution spatiale est inversement proportionnelle à la résolution spectrale. On peut le comprendre en réfléchissant en termes de CCD : pour obtenir un pixel RVB de l’image, on a besoin d’un CCD pour la valeur de rouge, un pour la valeur de vert et un pour la valeur de bleu. Physiquement, trois CCD ne s’arrangent pas très bien et on a en général une configuration comme suit :

Quatre CCD sont nécessaire pour former un pixel couleur, d’où larésolution spatiale deux fois moindre. Ce problème est en partie résolu par le pan‐sharpening (voir ci‐dessous) ou par des dispositifs de filtrage du type séparateurs dichroïques defaisceau en cascade (voir § ADS40). Le rapport de 4 pour 1 surfacique, ou 2 pour 1 linéaire, est amplifié par lephénomène de perte d’énergie due aux filtres, donc nécessitant de plus grands CCD. Un rapport de GSD (= linéaire) de 4 pour 1 est habituel. Une « solution » pour contourner ce problème est le pan‐sharpening (voir ci‐dessous).

Cet antagonisme résolution spectrale ↔ résolution spatiale conduit à utiliser la résolution spectrale la plus basse (panchromatique ou « noir et blanc ») pour les applications à exigences géométriques élevées. Inversement, les applications hyperspectrales se font avec des résolutions géométriques faibles.

3.5.2 Identification vs interprétation

On considère qu’à une résolution donnée, on peut identifier un objet de taille égale à 3 x la taille du pixel, et on peut interpréter un objet de taille égale à 20 x la taille du pixel.

Par exemple, à une résolution de 1.6 m on peut identifier une voiture (longueur : 5 m) ; à une résolution de 0.2 m, on peut interpréter cette voiture.

GSD = 160 cm

GSD = 20 cm

Figure 8: Capteurs et résolutions géométriques

Page 20: photogrammétrie

HEIG‐VD, G2C 20 / 141 F. Gervaix, février 2010

3.5.3 Pan‐sharpening

Le pan‐sharpening (traduction libre : colorisation) est un procédé très utilisé en imagerie satellitaire afin d’améliorer la résolution spatiale des images multispectrales. En fait, les images pan‐sharpened sont des images panchromatiques où des valeurs RVB sont calculées pour chaque pixel sur la base des images multispectrales à plus faible résolution spatiale.

Figure 9: Principe du pan‐sharpening

Figure 10: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

Page 21: photogrammétrie

HEIG‐VD, G2C 21 / 141 F. Gervaix, février 2010

3.6. Catalogage des images numériques On peut cataloguer les images numériques selon trois critères :

• La source:

o Photos argentiques numérisées

o Images numériques issues de caméras CCD à matrices ou à barrettes

o Images spatiales/satellitaires à haute et très haute résolution Ce critère est important en termes de résolution spatiale et pour la procédure de géoréférencement. Par la suite, ce critère n’est plus significatif.

• La largeur de champ :

o Images à champ large (photographie aérienne)

o Images à champ étroit (photographie satellitaire) Ce critère est très important pour la création d’orthophoto et pour le traitement du sursol en général

• La géométrie :

o Conique o Cylindro‐conique

Ce critère est pertinent pour les images satellitaires et, depuis récemment, pour les images aériennes.

source : San‐Lo Aerial Surveys

Page 22: photogrammétrie

HEIG‐VD, G2C 22 / 141 F. Gervaix, février 2010

3.7. Images numériques par caméras aéroportées Curieusement, alors que des capteurs optiques numériques sont utilisés de façon standard dans la télédétection satellitaire depuis des décennies, les deux premières caméras numériques pour les prises de vues aériennes ont été présentées en 2000 seulement. La photogrammétrie numérique existait depuis plusieurs années, mais c’était essentiellement des images analogiques scannées. Les premiers essais d’images numériques avec des caméras non photogrammétriques n’avaient que partiellement fait leurs preuves.

De nombreuses raisons plaident en faveur de l’utilisation d’une caméra numérique pour les prises de vues aériennes. Il faut dire qu’une telle caméra rime avec des économies sur le plan de l’achat et de l’entreposage des films et épargne tout le processus de développement. Les données enregistrées sont plus rapidement disponibles pour le traitement ultérieur et sont indépendantes du processus de développement irréversible. Les capteurs numériques se distinguent des capteurs analogiques par leurs qualités radiométriques supérieures et leur meilleure qualité géométrique. De plus, ces capteurs numériques offrent des possibilités d’enregistrement plus variées et permettent un enregistrement multispectral (panchromatique, couleur RVB, fausses couleurs infrarouge) simultané et géoréférencé.

Mais il existe également quelques désavantages compliquant l’utilisation pratique de ces caméras numériques. Un format d’enregistrement de 23 x 23 cm reste par exemple difficile à remplacer et l’archivage à long terme des données n’est à l’heure actuelle pas encore assuré comme c’est le cas pour tous les autres supports électroniques. Les capteurs numériques moyens et grands formats demandent l’adaptation de l’infrastructure existante au sol et dans l’avion. Les plans de vol et les méthodes d’archivage doivent également être repensés.

Deux grandes tendances se dégagent actuellement de la recherche et de l’industrie :

• Barrettes de CCD

o DLR HRSC (Allemagne)

o Leica ADS40 (Suisse/USA) • Matrice(s) de CCD

o IGN‐F (France) o Z/I DMC (Allemagne/USA)

o Vexcel Microsoft UltraCam (Autriche/USA)

Aucune des deux technologies ne peut prétendre être la solution parfaite à l’heure actuelle. Chacune a ses adeptes et ses détracteurs. On s’intéressera par la suite aux deux technologies, sans partisanisme.

Page 23: photogrammétrie

HEIG‐VD, G2C 23 / 141 F. Gervaix, février 2010

3.8. Problématique des dévers La projection centrale a un « défaut » principal : un phénomène de dévers est visible sitôt que l’on s’éloigne du centre de la photo. Ce phénomène est d’autant plus important avec des focales courtes (large champ, p. ex. ck = 88 mm).

D’un point de vue géométrique, tous les éléments du sursol (bâtiments, arbres, mâts, …) ont l’air de pencher vers l’extérieur de la photo. Seuls les éléments au centre de l’image sont photographiés verticalement.

L’illustration à gauche est très explicite. La vue est légèrement oblique et seuls les arbres au milieu du bas de la photo sont vus verticalement. Sitôt que l’on s’éloigne (vers la droite, la gauche ou le haut), les arbres donnent l’impression de pencher de plus en plus (Photo par F. Pellet, GEO 2007).

D’un point de vue radiométrique, le soleil n’étant jamais vertical sous nos latitudes, la face sud d’un objet sera toujours plus éclairée que la face nord.

Ce défaut est particulièrement gênant lors de la création de la mosaïque, tant sur un plan géométrique que radiométrique.

Leica RC30

Objectif 15/4 UAG‐S

Focale = 153 mm

Angle transversal /

longitudinal: 37°

Angle diagonal: 47°

Angle « utile » max: 44° La photo est prise dans l’hémisphère nord, à une latitude d’environ 45°. Elle est orientée le nord en haut (North up).

Figure 11: Phénomène du déversement

Page 24: photogrammétrie

HEIG‐VD, G2C 24 / 141 F. Gervaix, février 2010

A la verticale du centre de projection C’est, sous certains aspects, la situation idéale, mais très confinée !

Les éléments en hauteur ne sont pas déformés et on ne voit pas les façades. C’est ce qui est recherché pour la production de True Ortho™ (orthophotos intégrales).

On peut mesurer l’emprise du toit, mais pas celle du bâtiment au sens de la Mensuration Officielle.

Sur la base de cette seule info, on ne peut pas mesurer la hauteur des objets.

Dévers dans une direction En haut de la photo (marque fiduciaire n°7), les arbres et les poteaux sont couchés. Visuellement assez dérangeant, mais idéal pour mesurer la base et le sommet d’éléments verticaux (hauteur).

Dévers dans une direction A droite de la photo (marque fiduciaire n°8), les bâtiments sont vus « de biais ». Visuellement assez dérangeant, mais idéal pour mesurer l’emprise d’un bâtiment (on voit sous les toits), d’un côté au moins.

Page 25: photogrammétrie

HEIG‐VD, G2C 25 / 141 F. Gervaix, février 2010

Dévers dans les deux directions En haut à gauche de la photo (marque fiduciaire n°3), combinaison des deux effets précédents. Les rectangles (toits) deviennent des trapèzes. Visuellement assez dérangeant, mais idéal pour mesurer l’emprise d’un bâtiment (on voit sous les toits), de deux côtés.

Cas typique de la forêt Les lisières de forêt sont soit très nettes (on voit la base et le sommet des arbres) soit très floues (on ne peut qu’estimer la limite sous les arbres). Peut être utile pour des applications forestières (on voit la canopée de façon plus complète) mais le plus souvent gênant (l’angle change en fonction de la position sur la photo).

Combinaison dévers + ombre En bas à droite de la photo (marque fiduciaire n°1), les bâtiments sont vus « de biais » et on ne voit que la façade à l’ombre des bâtiments et les ombres portées paraissent d’autant plus grandes. Situation la pire.

Page 26: photogrammétrie

HEIG‐VD, G2C 26 / 141 F. Gervaix, février 2010

Question:

Pourquoi le haut (nord) de l’image parait clair, et le bas (sud) sombre ? Réponse : l’accumulation des ombres en bas et des faces éclairées en haut conduit globalement à cet aspect plus lumineux au nord et plus sombre au sud !

Page 27: photogrammétrie

HEIG‐VD, G2C 27 / 141 F. Gervaix, février 2010

4. Aspect matériel

4.1. Caméras analogiques (ou « film ») La caméra film est le moyen le plus répandu pour l’acquisition d’images aériennes et terrestres. Pour des raisons assez évidentes de logistique, ce moyen est pratiquement inexistant pour les images satellitaires.

Le terme « caméra » est à prendre dans son sens littéral de chambre de prise de vue. L’influence de l’italien et surtout de l’anglais fait que l’on parle abusivement de caméra, alors qu’il s’agit bel et bien d’un « appareil de photo ».

La technologie du film a remplacé les plaques de verre vers 1950. Tout d’abord dans un format de 18 x 18 cm, le format 23 x 23 cm s’est imposé rapidement comme le standard, qui est toujours actuel.

Les améliorations technologiques des ces 20 dernières années sont la compensation du filé et les plateformes gyroscopiques.

Les deux seuls fabricants de caméras analogiques grand format sont Wild à Heerbrugg (CH) et Carl Zeiss à Oberkochen (D). Les deux entreprises ont changé plusieurs fois de noms et sont maintenant connues comme Leica Geosystems Geospatial Imaging et Z/I Imaging.

L’illustration ci‐contre montre une caméra Leica RC30 qui s’est vendue dès 1993 pendant 10 ans à plus de 400 exemplaires. Ces illustres prédécesseurs RC8, RC10 et RC20 se sont vendus à plus de 1000 exemplaires et beaucoup sont encore en activité.

On reconnaît le système d’entraînement, les cassettes (une avec le film vierge et une avec le film exposé), la plateforme gyroscopique stabilisatrice et l’objectif qui apparaît en dessous, ainsi que la poignée du filtre. Le périscope sur la droite est avantageusement complété (mais pas remplacé) par un système de navigation et de contrôle de la caméra par GPS.

L’ensemble est opéré par une personne qui coordonne le vol avec le pilote de l’avion.

Ces caméras sont un concentré d’optique, de mécanique et, depuis l’apparition des microprocesseurs dans les années 80, d’électronique. Les caractéristiques essentielles sont une stabilité excellente (géométrie conservée malgré les différences de température, pression et humidité), une fiabilité à toute épreuve (on peut produire jusqu’à 1000 photos en une journée et toutes doivent être irréprochables car uniques) et une flexibilité d’utilisation presque sans limite (conditions de luminosité, altitude, vitesse de l’avion, etc.).

La valeur d’une telle caméra est de l’ordre de CHF 500'000, dont la moitié environ pour l’objectif.

Page 28: photogrammétrie

HEIG‐VD, G2C 28 / 141 F. Gervaix, février 2010

4.1.1 Exemple

23 x 23 cm

100 lp/mm (lignes par mm) ≈ pixels/mm

8 marques fiduciaires (fiducials)

annotations de marge (a)

type d’objectif (b)

compteur 0000 (c)

Figure 12: Détails d’une image analogique

(b)

(c)

(a)

Page 29: photogrammétrie

HEIG‐VD, G2C 29 / 141 F. Gervaix, février 2010

4.2. Caméras numériques « moyen format » Les caméras numériques moyen format (couramment appelées « 4k x 4k » en raison de la taille de la matrice CCD) ont connu un essor très rapide dès le milieu des années 90. Malgré quelques problèmes de jeunesse (instabilités mécanique et optique, manque de standards, changement des habitudes de vol, etc.), elles sont devenues très performantes, en particulier en combinaison avec des capteurs comme le LiDAR. Elles ont aussi permis de démocratiser l’acquisition d’images aériennes et d’accélérer la disponibilité des données (rapid‐response mapping ou cartographie d’urgence). L’émergence des caméras numériques moyen format a également mis une pression technologique et commerciale sur les fabricants de caméras analogiques grand format.

4.2.1 Exemple

4092 x 4079 pixels 1 pixel = 9 μm (3.6 x 3.6 cm) pas de marques fiduciaires

4.2.2 Applanix DSS™

« La DSS (Digital Sensor System ou système de capteur numérique) est un système numérique aéroporté de prise de vue prêt à l’emploi, directement géoréférencé et de moyen format. C’est la solution numérique pour les applications de levé aérien et la télédétection qui requièrent une réalisation rapide et peu onéreuse. Comme alternative de qualité photogrammétrique aux caméras numériques grand format, la DSS offre un système compact, une solution complète et une avance sur la concurrence. »

Pour plus d’informations, se référer au site d’Applanix (www.applanix.com) ou à la page spécifique à la DSS : http://www.applanix.com/solutions/airborne/dss.html

Le cas de l’Applanix DSS est emblématique puisqu’elle a évolué du modèle 301 (4k x 4k), vers le modèle 322 (22 Mpixels, 4092x5436) au modèle 439 (39 Mpixels, 5412 x 7216, grâce à une diminution de la taille du pixel à 6.8 μm).

Page 30: photogrammétrie

HEIG‐VD, G2C 30 / 141 F. Gervaix, février 2010

4.3. Caméras numériques « grand format » En remplacement ou complément des caméras analogiques « grand format », et en réponse à l’émergence des caméras numériques « moyen format », les fabricants « historiques » de caméras photogrammétriques (essentiellement Wild et Zeiss) ont développé des caméras numériques « grand fomat ».

Les choix technologiques ont été assez différents chez les uns et chez les autres.

D’un côté, on essayé de cloner les caméras analogiques en remplaçant le film par un dos numérique, par une matrice de CCD. C’est ce qui s’est fait pratiquement systématiquement avec les appareils photos de poche. Le modèle géométrique est resté le même (projection conique)

D’un autre côté, on a repris et adapté une technologie des satellites, qui eux étaient numériques depuis plus d’une décennie. Le modèle géométrique a changé (cylindro‐conique) et certains processus ont du être adaptés (en particulier, l’aérotriangulation).

4.3.1 Leica Geosystems ADS (Wild)

ADS est l’acronyme pour Airborne Digital Sensor. Il est intéressant que le mot « caméra » a disparu. En effet, littéralement, il n’y a plus dechambre et elle est remplacée par un plan focal munis de CCD.

Le numéro 40 n’est là que pour signaler que c’est, dans un sens, lesuccesseur de la RC30.

C’est capteur « push‐broom », littéralement un « balais ». Cela signifie simplement que le capteur balaye la surface longitudinalement et encontinu. C’est un terme repris du domaine satellitaire (« push‐broom satellite »). Un capteur similaire est le LiDAR, qui lui balaye longitudinalement mais également latéralement.

L’autre caractéristique, liée à la précédente et qui est soulignée par le logo ADS40, est l’utilisation de barrettes de CCD, par opposition aux matrices de CCD. C’est une technologie qui a été développée pour les satellites, par exemple les satellites SPOT, IKONOS, LANDSAT, etc.

De l’acquisition au produit final, les données et les traitements sont100% numériques, ce qui rend l’ensemble homogène et moinssusceptible aux perturbations environnementales.

Ci‐contre, le principe du « push‐broom », ou balayage en continu. Les barrettes de CCD permettent de scanner toute la largeur de la scène (contrairement au LiDAR qui scanne également latéralement. De plus, la combinaison de plusieurs barrettes (au minimum deux) permet de satisfaire la condition essentielle de la photogrammétrie.

Page 31: photogrammétrie

HEIG‐VD, G2C 31 / 141 F. Gervaix, février 2010

Exemple d’image

12000 x n pixels 1 pixel = 6.5 μm (78 mm de large) pas de marques fiduciaires

Détails matériels

Un des éléments les plus intéressants est le tetrachroïde, constitué de séparateurs dichroïques de faisceau en cascade. Il permet l’acquisition simultanée des canaux proche‐infrarouge, bleu, vert et rouge.

Page 32: photogrammétrie

HEIG‐VD, G2C 32 / 141 F. Gervaix, février 2010

4.3.2 Z/I Imaging DMC (Zeiss)

La DMC (Digital Modular Camera) de Zeiss‐Intergraph est, comme son nom l’indique, une caméra modulaire. Elle esten fait un assemblage de huit caméras :

• 4 caméras haute‐résolution panchromatique 7k x 4k

• 4 caméras multispectrale 3k x 2k

Elle se monte dans la plateforme gyroscopique T‐AS, également utilisée pour la Zeiss RMK‐Top.

Page 33: photogrammétrie

HEIG‐VD, G2C 33 / 141 F. Gervaix, février 2010

4.3.3 Microsoft UltraCam (Vexcel)

Composé de huit caméras (4 panchro + R, G, B, PIR), l’UltraCamD produit des images couleurs (pan‐sharpened) à une résolution de 7500 x 11500 pixels. L’image couleur vraie a une résolution de 2400 x 3680. Il y a donc un facteur linéaire de 3.125, resp. surfacique de 9.8, entre l’image panchromatique et l’image couleur.

On parle également de 13 CCD, puisque les objectifs panchro sont composés de resp. 4, 2, 2 et 1 CCD selon l’arrangement suivant :

Figure 13: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

L’UltraCamX est similaire, composée de 8 caméras (4 panchro + R, G, B, PIR) et sa résolution est de 9420 x 14430.

Voir www.ultracamx.com (qui renvoie à www.microsoft.com/ultracam)

Page 34: photogrammétrie

HEIG‐VD, G2C 34 / 141 F. Gervaix, février 2010

Des UltraCam ont été utilisées dans le cas de la couverture d’orthophotos numériques du canton de Genève, aussi bien en 2005 qu’en 2009. La comparaison du résultat pour ce chantier emblématique est riche en enseignements.

Figure 14: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

Evolution du capteur en quatre ans : outre le nombre de pixels (la aille physique du capteur reste la même), la dynamique radiométrique est augmentée, ce qui permet une meilleure « ecture »dans les ombres.

Figure 15: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

Les axes de vols sont conditionnés par la topographie (Jura, Salève), le lac et l’aéroport. Les lignes de vols sont réalisées et traitées en continu, mais seules les images « utiles » sont publiées. Les interruptions sur le lac ou sur le canton de Vaud sont virtuelles.

Page 35: photogrammétrie

HEIG‐VD, G2C 35 / 141 F. Gervaix, février 2010

Figure 16: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

Déjà en 2005, un triple recouvrement longitudinal (habituel) et latéral (peu fréquent) était disponible. Mais seule une moitié de la surface bénéficie de cette particularité.

Figure 17: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009

Les prévisions 2009 (qui se sont pour l’essentiel réalisées !) montrent une augmentation dans tous les compartiments.

Page 36: photogrammétrie

HEIG‐VD, G2C 36 / 141 F. Gervaix, février 2010

4.4. Tour d’horizon des utilisateurs Si l’on fait un tour d’horizon des utilisateurs (end‐users), en Suisse, en Europe et dans le monde, on peut observer un certain nombre de points communs. Voici quelques exemples :

• http://www.swisstopo.ch/

• http://www.3001inc.com

• http://www.sintegra.fr/

• http://www.apei.fr/

• http://www.cgrit.it/

• http://www.ign.fr/

• http://www.swissphoto.ch/

• http://www.geogra.it/

• http://www.gi.leica‐geosystems.com/ http://www.erdas.com/

Il est tout à fait instructif de visiter ces sites pour comprendre le fonctionnement de ce domaine, assez différent des autres domaines de la géomatique.

4.4.1 Enseignements

Suite à ce petit tour d’horizon, on peut relever les points communs suivants :

• Importance du matériel (avions, caméras, labo)

• Tournant technologique (argentique – numérique)

• Intégration de plusieurs technologies ( http://www.3001inc.com)

• Tailles variant entre artisanat et industrie (15 – 150 employés)

• Pas des start‐up! (30 – 60 ans d’existence)

Page 37: photogrammétrie

HEIG‐VD, G2C 37 / 141 F. Gervaix, février 2010

5. Mesures GPS et inertielles pour la photogrammétrie

5.1. GPS Le GPS (Global Positioning System ou système de positionnement mondial) et l’IMU (Inertial Measurement Unit ou station de mesures inertielles) sont devenus des éléments incontournables des missions photogrammétriques, aussi bien pour les caméras à film que pour les caméras et autres capteurs numériques.

Le GPS intervient à trois niveaux :

• aide à la navigation et au contrôle de la caméra en temps réel

• détermination précise des centres de projection en post‐traitement

• détermination précise des points d’appui au sol en temps réel ou post‐traitement.

L’IMU intervient à deux niveaux :

• contrôle de l’orientation de la caméra en temps réel

• détermination précise des orientations externes en post‐traitement.

Le GPS peut être utilisé avec ou sans IMU, alors que l’IMU requiert un GPS pour son fonctionnement.

5.1.1 Notions de base et vue d’ensemble

Le GPS est un système de navigation basé sur les satellites, développé et opéré par le département de la défense des USA. Le GPS permet aux utilisateurs sur terre, mer et dans l’air de déterminer leur position tri‐dimensionnelle, leur vitesse et le temps, 24h par jour, par tous les temps, partout dans le monde.

Page 38: photogrammétrie

HEIG‐VD, G2C 38 / 141 F. Gervaix, février 2010

Il existe de nombreux modes d’utilisation du GPS selon les critères suivants :

• utilisation du code seulement ou du code et de la phase

• positionnement absolu ou relatif

• en temps réel ou en post‐traitement

• en cinématique ou en statique

• En théorie, 16 modes sont donc imaginables. En fait, techniquement, seuls 11 sont possibles.

• Parmi ces 11 modes possibles, la photogrammétrie a recours à cinq d’entre eux.

• L’aide à la navigation et le contrôle de la caméra fait appel au plus imprécis des modes (code / absolu / temps‐réel / cinématique), voire sa version améliorée différentielle.

La détermination des centres de projection fait appel au deuxième mode le plus précis (phase / différentiel / post‐traitement / cinématique) et la détermination des points d’appui au sol aux modes voisins en termes de précision.

Page 39: photogrammétrie

HEIG‐VD, G2C 39 / 141 F. Gervaix, février 2010

Il ne faut pas oublier que l’appellation cinématique peut signifier une vitesse de moins d’un mètre par seconde (marche lente) ou de plus de 200 m/s ! (p. ex. : Cessna Citation à 800 km/h de vitesse de croisière).

5.1.2 Effets du GPS

Le GPS a deux effets principaux :

• diminution (voire suppression) des points d’appui

• recouvrement latéral et marge de sécurité réduits

Ci‐dessous un bloc d’aérotriangulation traditionnel, avec de nombreux points d’appui 3D et encore plus de points d’appui 1D. Le nombre de points d’appui augment pratiquement linéairement avec les dimensions du bloc.

Ci‐dessous un bloc d’aérotriangulation assisté par GPS, avec quelques points d’appui 3D et des bandes transversales (cross‐strips)

Les bandes transversales peuvent être remplacées par des points d’appui altimétriques (1D), mais en général il est moins coûteux de voler et traiter les bandes transversales que d’établir une dizaine de points au sol.

Le GPS « rigidifie » le bloc traditionnel. Un peu comme en mécanique des structures, la combinaison du GPS et des mesures dans les images forme un treillis (assemblage de barres rigides axialement qui s’articulent à leurs extrémités). Un tel bloc sera moins sensible à une faiblesse localisée (nuage, lac, forêt).

Page 40: photogrammétrie

HEIG‐VD, G2C 40 / 141 F. Gervaix, février 2010

Le GPS géoréférence un bloc « absolu ». Les centres de projection étant connus assez précisément en planimétrie et en altimétrie (X, Y, Z), c’est la moitié de l’orientation externe qui est connue. Les points d’appui sont toujours utiles, plus pour le contrôle que pour la détermination. Même si un bloc sans GCP, ni point de contrôle est pensable, on essayera toujours d’inclure quelques uns de chaque pour le contrôle qualité.

Un autre effet positif est l’économie de vol. Grâce à la navigation plus précise, les exigences en recouvrement latéral peuvent être abaissées (de 30% en vol « à vue », on passe à 20%, 18% voire 15% en terrain plat). Le facteur de sécurité latéral peut également être abaissé. Ceci génère des réductions du nombre de lignes de vol, qui sont coûteuses.

Le déclanchement automatique et précis des « tops caméra » permet également un recouvrement longitudinal mieux contrôlé ; sa valeur nominale peut donc être abaissé (par exemple, 60% au lieu de 65%). Néanmoins, on fait encore souvent au réglage continu du v/H (rapport vitesse / hauteur de vol ajusté par le navigateur grâce au périscope.

5.1.3 Positionnement des « tops caméra »

Les mesures GPS sont prises à intervalle régulier (« époque ») pour les applications cinématique, habituellement 1 sec ou mieux. La caméra est déclanchée selon le plan de vol (anticipation).

Les tops caméra ne coïncident pas avec le GPS. La position des tops caméra est interpolée de la trajectoire GPS. Le temps du top caméra est critique et doit être précis par rapport au temps GPS. En conséquence, il faut utiliser la même source de temps que le GPS ; c’est le rôle du « event input ».

5.1.4 Précision nécessaire (et suffisante…)

Règle

empirique 1:4’000 1:10’000 1:25’000

Temps réel (emplacement des images) 1 : échelle photo

100 40 m 100 m 250 m

Post‐traitement (coordonnées des centres de projection)

1 : échelle photo 50’000

8 cm 20 cm 50 cm

5.1.5 Recommandations pratiques pour l’exécution du vol

Si le GPS est utilisé pour la détermination des centres de projection (GPS différentiel en post‐traitement), au minimum une station de référence GPS se trouvera dans le périmètre du chantier ou dans ses environs

Page 41: photogrammétrie

HEIG‐VD, G2C 41 / 141 F. Gervaix, février 2010

immédiats. Deux stations de référence sont préférables pour des raisons de fiabilité (la précision ne sera pas meilleure).

La distance maximale de l’avion par rapport à la station est un paramètre controversé, mais un modèle simple d’erreur moyenne à craindre est : σ = 50 mm + 2 ppm. Usuellement, une distance de 40 à 50 km est considérée comme limite. Au‐delà, les ambiguïtés risquent d’être perdues (ou pas du tout résolues), ce qui dégrade considérablement la précision atteignable.

L’utilisation d’un modèle du géoïde ou, dans le pire des cas, de l’altitude orthométrique pour la station de référence est fortement recommandée. L’utilisation de points d’appui lors de l’aérotriangulation mitige cette exigence.

Le vecteur « antenne GPS ↔ centre de projection » doit être appliqué et, dans la mesure du possible, en incluant la dynamique de l’avion, c'est‐à‐dire ses variations d’attitude. Le vecteur doit donc être déterminé par des méthodes topométriques classiques avant ou après le vol. L’assiette de l’avion doit être enregistrée en continu ou au minimum à chaque instant de prise de vue. On peut par exemple enregistrer les corrections réalisées par la plateforme gyroscopique.

5.2. GPS et IMU combinés Le GPS fournit une position absolue à une fréquence basse (e.g. 2 Hz). L’IMU fournit une position relative et une orientation absolue à une fréquence élevée (e.g. 200 Hz). Le GPS aide la solution de navigation inertielle. La combinaison GPS/IMU fournit à une fréquence élevée:

• position

• vitesses

• accélérations

• roulis et tangage (« roll & pitch »)

• lacet (« heading »)

• vitesses angulaires

On obtient ainsi la position 3D et l’orientation 3D de la plateforme ou du capteur, donc des images.

Figure 18: Principe de la correction de l’IMU par le GPS

Page 42: photogrammétrie

HEIG‐VD, G2C 42 / 141 F. Gervaix, février 2010

5.2.1 Précision obtenues

Solution de navigation (temps réel, naturelle)

• position: σ = 3‐10 m

• vitesse: σ = 0.5 m/s

• roll & pitch: σ = 1’

• heading: σ = 5’‐10’

Solution post‐traitée

• position: σ = 10‐30 cm

• vitesse: σ = 0.05 m/s

• roll & pitch: σ = 20’’

• heading: σ = 30’’

5.2.2 Applanix POS (Position and Orientation System)

(2005)

(2009)

Ci‐dessus un IMU tel que intégré par l’entreprise Applanix (Toronto, Canada).

Logiciel POSPac

• POSPac

o Lecture et décompactage des données brutes

o Distribution des données dans des fichiers spécifiques (GPS, IMU, solution temps réel)

o Création d’un fichier d’information (log file)

o Présentation de la solution temps réel

• POSGPS

o Conversion du des données des GPS aérien et au sol o Calcul de la trajectoire en avant et en arrière o Contrôle qualité de la trajectoire (différences) o Exportation de la trajectoire en format « Applanix »

• POSProc

o Combinaison des infos GPS (trajectoire) et INS (accélération, angles)

o Définition des nombreux paramètres GPS et INS

Page 43: photogrammétrie

HEIG‐VD, G2C 43 / 141 F. Gervaix, février 2010

o Exécution de BET (Best Estimate of Trajectory)

o IIN (Integrated Inertial Navigation) = en avant o résultat intermédiaire: snv (strapdown navigation)

o SMTH (Smoother) = en arrière

o CORRECT_NAV = combinaison avant/arrière

o Résultat final: SBET (Smoothed Best Estimate of Trajectory)

Figure 19: Séquence jusqu'à la trajectoire lissée

5.3. Flux des tâches habituel Aujourd’hui, le GNSS est quasi‐systématiquement présent lors d’un chantier photogrammétrique. Qu’importe sa précision, il sera au minimum utile pour la mise en place du bloc. Cela a nécessité un « recyclage » de l’opérateur photogrammétrique traditionnel. Les données en jeu sont également plus nombreuses, toutes sources potentielles d’erreurs.

Ce qui était révolutionnaire il y a dix ans (voir ci‐dessous) est désormais classique. L’IMU n’est qu’un élément supplémentaire facilitant le traitement du chantier, surtout dans des cas « non‐verticaux ».

Figure 20: Flux de données et logiciels (LH Systems, 1999)

Page 44: photogrammétrie

HEIG‐VD, G2C 44 / 141 F. Gervaix, février 2010

5.4. Points d’appui (GCP) Les points d’appui (ou points d’ajustage ou points de calage) sont des éléments matériels très importants. Ils sont essentiels pour l’aérotriangulation et demandent une planification logistique et géographique précise.

Les points d’appui servent à la détermination de la référence absolue au sol. Ces points sont connus en coordonnées planimétriques et/ou altimétriques. Ils peuvent être signalisés ou pas. Ils doivent être mesurés manuellement (ou interactivement dans le cas de mesure automatique supervisée), et ce dans le plus grand nombre d’images, idéalement six et plus.

Auparavant, les points d’appui formaient le seul lien avec la référence absolue du sol et du système de coordonnées. De nos jours, le GPS embarqué fournit une excellente approximation de cette référence, aussi bien planimétrique qu’altimétrique.

L’abréviation anglaise GCP (Ground Control Point) est très répandue et simplifie la dénomination. Par contre, c’est un faux ami dans le sens que le GCP est à ne pas confondre avec le checkpoint ou point de contrôle. En d’autres termes, le Ground Control Point n’est pas un point de contrôle !

Le point de contrôle (ou checkpoint) ne sert pas à la détermination de la référence absolue du sol, mais sert au contrôle de celle‐ci. Statistiquement parlant, c’est un point d’appui avec un poids nul (= contribution à la détermination nulle). Pour le reste, c’est un point connu en coordonnées, signalisé ou pas, qui doit être mesuré manuellement, donc très similaire à un GCP.

Figure 21: Point d'appui (GCP) peint au sol

Le nombre de points d’appui est essentiellement fonction de la taille du bloc et de l’utilisation ou non du GPS aéroporté. Le nombre et surtout la disposition des points d’appui n’est pas une science exacte et, dans le doute, on préférera se placer du côté de la sécurité. Quelques recommandations sont néanmoins utiles :

• L’utilisation de groupes de GCP (grappes ou cluster) est très efficace, en particulier pour les points non signalisés. En effet, la logistique est très similaire et le risque de mauvaise surprise (point détruit ou caché, point mesuré de façon imprécise, identification fausse, etc.) est fortement réduit.

Page 45: photogrammétrie

HEIG‐VD, G2C 45 / 141 F. Gervaix, février 2010

• Quelques points altimétriques permettent d’éviter le basculement autour de l’axe longitudinal des bandes. Ces points sont en général peu « onéreux ».

• Quelques points de contrôle permettent de bien « sentir » la précision du bloc, en complément de tous les indicateurs statistiques habituels. Une proportion 2/3 de GCP et 1/3 de points de contrôle a fait ses preuves.

Les points d’appui peuvent être signalisésou non. Dans les deux cas ils peuvent être déterminés en coordonnées avant, pendant ou après le vol. Chaque situation a son lot d’avantages et de risques. Ça peut être des points existants, par exemple de la Mensuration Officielle, qui sont simplement signalisés pour l’occasion.Les GCP (et les points de contrôle) sont en général documentés par une fiche descriptive comprenant une situation générale et un croquis pour une identification sans ambiguïté. Cette exigence a diminué avec l’usage intensif du GPS aéroporté ( très bon prépositionnement du réticule). Néanmoins, l’usage de protocoles est vivement encouragé, en particulier pour les points non signalisés. Le contraste peut être fortement augmenté en encadrant le signal blanc de peinture noire.

Pour les points « naturels » (sans signalisation propre), des situations présentant une bonne visibilité et un bon contraste seront choisies. Par exemple, le marquage au sol de places de parc ou de ligne médiane traitillée est couramment utilisé. Attention à ce que la taille ou l’épaisseur du marquage soit compatible avec l’échelle de l’image ou la GSD. Il faut prendre garde également à bien définir l’emplacement exact du point (bord gauche ou droite de la ligne, etc.).

Page 46: photogrammétrie

HEIG‐VD, G2C 46 / 141 F. Gervaix, février 2010

6. Déroulement d’un chantier photogrammétrique

6.1. Travaux préparatoires Selon les cas, les paramètres suivants sont à déterminer (choix) ou sont imposés par le mandant ou les circonstances (disponibilité du matériel, délais à respecter, …). Ces paramètres sont par exemple :

• période de l’année et heure à laquelle le vol aura lieu

• type de caméra, de film et d’objectif

• échelle de restitution (ou « échelle de la carte »)

• direction (et éventuellement sens) des axes de vol

• recouvrements longitudinal et latéral (ou fonction du produit recherché).

6.1.1 Paramètres temporels du vol

Période de l’année

La période de l’année à laquelle le vol photogrammétrique est réalisé, si elle n’est pas imposée par le mandant ou par les délais à respecter, est un choix très important et est fonction du produit final recherché.

Fourchette :

Heure du jour

L’heure du jour à laquelle le vol photogrammétrique est réalisé, si elle n’est pas imposée par le mandant ou par les conditions de trafic aérien, est un choix très important et peut faire varier grandement la qualité du produit final, en particulier dans le cas d’orthophotos. En effet, la longueur des ombres est un paramètre esthétique prépondérant.

Fourchette :

Nébulosité

La nébulosité est un autre facteur incontrôlable, auquel on ne peut que s’adapter. En général, on ne volera que par nébulosité et voile nuls. Les conditions du projet (délais, produit final recherché, exigences de qualité, …) peuvent conduire à des entorses à cette règle. A contrario, si l’on recherche l’absence d’ombre (milieu très urbanisé), on choisira le moment du vol quand les nuages hauts (cirrus, cirrocumulus et cirrostratus) atténuent ou suppriment les ombres.

6.1.2 Type de caméra, de film et d’objectif

Caméra analogique ou numérique

Ce choix est surtout fonction de la disponibilité de l’une ou de l’autre. A l’heure actuelle, il est difficile de les départager d’un point de vue économique. Un avantage indiscutable de la caméra numérique est la quasi instantanéité de la disponibilité des images.

Film noir/blanc, couleur ou infrarouge

Ce choix se pose pour les caméras analogiques (type de film), mais également pour certaines caméras numériques qui peuvent acquérir soit de la couleur (R, V et B), soit de la fausse couleur (PIR, R et V). La notion de fausses couleurs sera étudié plus en détails en télédétection.

Page 47: photogrammétrie

HEIG‐VD, G2C 47 / 141 F. Gervaix, février 2010

Focale de l’objectif

Ce choix est lié à la précision exigée, au(x) produit(s) final(s) recherché(s), au type de terrain et aux conditions de vol (type d’avion, hauteurs de vol maximum et minimum imposées ou pas, présence ou non de nuages ou voile).

Attention ! L’angle Ω est souvent exprimé en degrés plutôt qu’en grades, et est souvent défini comme l’angle diagonal. Par exemple, le grand‐angle est défini comme étant un « 90° » (dimensions utiles du cliché : 216 x 216 mm)

6.1.3 Échelle de restitution

L’échelle de restitution (ou « échelle de la carte ») est définie, directement ou indirectement, par le mandant. C’est l’échelle à laquelle on veut restituer, sous forme vectorielle ou raster, les photos.

Ce paramètre en conditionne un autre, essentiel pour la préparation du projet, l’échelle de l’image. Pour les capteurs numériques, ainsi qu’avec les clichés analogiques numérisés, cette notion est remplacée par la taille d’échantillonnage au sol (GSD pour Ground Sampling Distance), exprimée en [m] ou en [cm].

Page 48: photogrammétrie

HEIG‐VD, G2C 48 / 141 F. Gervaix, février 2010

La relation entre l’échelle de restitution (1 : mk, m pour Massstab et k pour Karte) et l’échelle de l’image (1 : mb, m pour Massstab et b pour Bild) n’est pas linéaire. Le tableau ci‐contre permet de déterminer l’un par rapport à l’autre. Ce tableau est valable pour des prises de vue analogiques (caméras « film »).

Pour des prises de vues numériques (p. ex. caméras « 4k x 4k » ou ADS40), l’échelle de l’image n’est pas relevante. On calculera plutôt la GSD en fonction de l’échelle de restitution ainsi : Résolution de l’œil humain ≈ 10 pixels par mm (= 254 dpi) 1 mm sur l’image = 10‐3 ∙ mk sur le terrain = 10 ∙ GSD [m]

GSD [m] = 10‐4 ∙ mk

ou GSD [cm] = mk : 100

Une échelle de l’image indicative peut alors être calculée comme :

1 : mb = taille du CCD / GSD

Le tableau ci‐contre donne leséquivalences pour des GSD et deséchelles classiques. Ces valeurs sontassez subjectives, d’où l’utilisationde fourchettes. Elles donnentnéanmoins de bonnes indicationspréalables au vol.

6.1.4 Direction des axes

Pour autant qu’elle ne soit pas imposée par le mandant, une direction principale est choisie pour le projet. Dans un terrain sans relief particulier, on choisira la parallèle au plus long coté du rectangle. Dans un terrain avec un relief marqué, on s’alignera sur les courbes de niveau. Le but est le plus souvent de minimiser le

Page 49: photogrammétrie

HEIG‐VD, G2C 49 / 141 F. Gervaix, février 2010

nombre d’axes de vol (mais pas nécessairement la longueur) et d’avoir altitude du sol « constante » le long d’un axe. Par « constante », on admet une altitude qui ne varie pas de plus de ±10% de la hauteur de vol.

Très souvent, la direction est <> ouest est choisie pour des raisons de simplicité. La direction nord <> sud est également très populaire, en particulier pour des raisons radiométriques (voir la problématique des dévers).

6.1.5 Recouvrements longitudinal et latéral

Recouvrement longitudinal

Le recouvrement longitudinal est indispensable pour satisfaire la condition sine qua non de la photogrammétrie : les objets doivent être mesurés dans deux (ou plus) images. Un recouvrement de 50% semble satisfaire cette condition (la moitié de l’image recouvre l’image précédente et l’autre moitié recouvre l’image suivante). Néanmoins, par sécurité, on utilise généralement un recouvrement longitudinal de 60% (50%.des objets sont mesurés 3x).

Pour des travaux particuliers, ce recouvrement peut être augmenté jusqu’à 80% (2x plus d’images, 100% des objets sont mesurés cinq fois) ou diminué jusqu’à 20% (2x moins d’images, aucun objet mesuré 3x, 25% sont mesurés 2x).

Recouvrement latéral

Le recouvrement latéral sert à assurer une couverture continue bande après bande. Si, en théorie, un recouvrement de quelques pourcents est suffisant, un recouvrement latéral d’au moins 15% (terrain plat) ou 25% (terrain accidenté) est nécessaire. Si la navigation n’est pas assistée par GPS, un recouvrement de 30% est même recommandé.

Facteurs de sécurité

Deux paramètres supplémentaires sont usuels : les facteurs de sécurité longitudinal et latéral. Ils servent à prévenir une erreur de pilotage ou de navigation, un retard de déclanchement de la caméra (« tops »), un plan de vol approximatif ou un terrain accidenté. Dans tous ces cas, l’empreinte planifiée des photos n’est pas exactement celle réelle et donc un décalage est à craindre. Les facteurs de sécurité permettent de parer à ce genre de problème. Par exemple, on ajoute une photo en début et en fin de bandes (facteur de sécurité longitudinal de 50%), et on décale le premier axe de vol et le dernier axe de vol sur le bord de la surface à photographier (facteur de sécurité latéral de 50%).

Page 50: photogrammétrie

HEIG‐VD, G2C 50 / 141 F. Gervaix, février 2010

6.2. Plan de vol

6.2.1 Paramètres initiaux

Les paramètres ci‐contre doivent être définis avant de commencer le calcul du plan de vol à proprement parlé. Ils le sont par des choix judicieux (voir § précédent) ou par les instructions du mandant.

6.2.2 Élément incontournable : la carte

L’objet à traiter peut être défini par des coordonnées ou simplement nommé, par exemple dans l’exemple ci‐dessous « Colline de Chamblon ».

Il s’agit d’abord d’encadrer la zone d’intérêt. Quand la possibilité est donnée, on choisira un rectangle, aligné ou non dans le système de coordonnées. Des polygones avec plus que quatre angles sont possibles, mais en général le nombre de photos par km² augmente significativement.

La carte est un excellent moyen de connaître les altitudes moyennes, minimale et maximale de la zone d’intérêt. On peut également appréhender le « sens » (ou les grandes lignes) du relief.

Dans cet exemple les directions est <> ouest et nord <> sud ne sont pas appropriées. La colline a un axe principal sud‐ouest <> nord‐est qui sera celui choisi pour le plan de vol (par exemple, une parallèle au plus grand côté).

Page 51: photogrammétrie

HEIG‐VD, G2C 51 / 141 F. Gervaix, février 2010

6.2.3 Calcul du plan de vol

Il s’agit ensuite de calculer les différents paramètres définissant le bloc, en particulier la hauteur de vol (hg), la longueur de base (b) et la distance entre bandes (a).

La hauteur de vol détermine l’altitude de vol AGL (Above Ground Level, au‐dessus du sol) en mètres, utile au photogrammètre. En plus, on calculera l’altitude de vol AMSL (Above Mean Sea Level, au‐dessus du niveau de la mer) en pieds (feet, ft), utile au pilote. Si des facteurs de sécurité, les valeurs de lp et lq devront être augmentées d’autant.

Page 52: photogrammétrie

HEIG‐VD, G2C 52 / 141 F. Gervaix, février 2010

Quelques échelles classiques et leurs paramètres

n est le nombre de clichés pour

100 km² Des logiciels dédiés calculent tous ces éléments, par exemple ASCOT de Leica Geosystems. C’est un logiciel développé durant les années 90, fonctionnant sous MSDOS, avec une interface graphique incroyable pour l’époque !

Page 53: photogrammétrie

HEIG‐VD, G2C 53 / 141 F. Gervaix, février 2010

Et affichent le résultat sous forme graphique, avec ou sans carte en arrière‐plan. L’effet des facteurs de sécurité longitudinal et latéral est clairement visible.

Sans facteurs de sécurité, les empreintes au sol des photos couvrent exactement la zone du projet, à un léger décalage longitudinal près.

Une superposition du plan de vol sur la carte permet de se rendre compte de l’emprise des clichés et de la position des axes de vols (voir ci‐après).

6.2.4 Alternative : application en ligne sur gecweb.info

Lors de la HES d’été – Outils Web en 2009, la volée GEO2011 a réalisé une moulinette disponible sur www.gecweb.info/2011. La particularité de l’application est de disposer d’une base de données extensible de capteurs, de calculer le minimum‐bounding rectangle de n’importe quel polygone, de déterminer les paramètres photogrammétriques et d’afficher les tops caméras en s’appuyant sur l’interface graphique de Google Maps (au travers de son API).

Une comparaison des deux résultats est donnée ci‐dessous. Il y a 20 ans d’intervalle entre une technologie et l’autre…

Page 54: photogrammétrie

HEIG‐VD, G2C 54 / 141 F. Gervaix, février 2010

Figure 22: Superposition de la carte nationale, des axes de vols, des « tops caméra » et des empreintes au sol

Figure 23: Alternative à l'aide de l'application en ligne gecweb.info

Page 55: photogrammétrie

HEIG‐VD, G2C 55 / 141 F. Gervaix, février 2010

L’organigramme (flux de tâches et de données) pour la programmation de l’interface est donné ci‐dessous. Il reste valable quelque soit la technologie utilisée…

Figure 24: Organigramme du calcul d'un plan de vol

Page 56: photogrammétrie

HEIG‐VD, G2C 56 / 141 F. Gervaix, février 2010

6.3. Exécution du vol La bonne exécution du vol est une question de bon plan de vol, de systématisme, d’expérience et… de chance !

La caméra et le film doivent correspondre aux exigences et choix faits préalablement.

L’altitude de vol est en général gérée par l’autopilote. L’altitude barométrique, ajustée au moment du décollage, fait foi en cas de différence avec l’altitude par GPS !

Le plus souvent, le GPS est utilisé pour la navigation mais il ne peut pas asservir directement d’autopilote. C’est donc bien le pilote qui transmet les corrections de cap à l’avion. Attention aux petites corrections brusques et souvent inutiles. Une capacité d’anticipation est souvent la clé d’un vol harmonieux. Des réactions (plutôt que des actions) sont sources de mouvements parasites néfastes.

Idéalement, le système de navigation est également un système de contrôle de la caméra. C’est donc ce système qui envoie les tops caméras de façon précise, et donc en anticipant le déclanchement de la prise de vue. Une demi seconde de temps de préparation n’est pas inhabituel, ce qui représente plus de 50m à 200 m.

Les clichés ou les images TIFF, ainsi que les métadonnées comme le GPS, l’IMU, etc. devraient être examinés dans les plus brefs délais afin d’éviter toute mauvaise surprise postérieure.

Ci‐contre, une exécution assez typique d’un petit chantier. Les lacets en début et fin de trajectoire sont en partie dus aux manœuvres d’initialisation de l’IMU.

Page 57: photogrammétrie

HEIG‐VD, G2C 57 / 141 F. Gervaix, février 2010

6.4. Scannérisation et suite La scannérisation (l’action de scanner les clichés analogiques afin de pouvoir les traiter par photogrammétrie numérique) fait partie intégrante de l’acquisition des données. C’est en général la dernière tâche qui est réalisée par l’avionneur au sens large.

C’est un passage obligé et, malheureusement, source de beaucoup d’erreurs, voire de fautes. Par l’émergence des capteurs numériques, c’est (heureusement !) une activité en voie de disparition que nous n’abordons que de façon très superficielle. Là aussi, du soin et de l’expérience sont les clés de la qualité.

Les scanners photogrammétriques, contrairement au scanner de bureau, ont une résolution très élevée, jusqu’à 120 lignes par mm (soit 3000 dpi). L’autre particularité est la possibilité de scanner des bobines de film entière, avec une régularité excellente.

Les points critiques de la scannerisation sont la sensibilité aux poussières et l’altération irréversible des clichés par des rayures. Les films doivent donc être scannés aussi immédiatement que possible et avec le plus grand soin.

Les clichés doivent être scannés de façon systématique (orientation, température, calibrations géométrique et radiométrique).

Si une compression des images est utilisée, elle doit être bien évaluée car elle est irréversible. L’archivage devrait se faire sans compression.

La résolution de scannage influence la taille des fichiers (et le temps de scannage) et doit aussi être choisie de façon judicieuse.

La radiométrie est l’aspect le plus délicat et nécessite une très grande expérience… et de la patience ! C’est une question subjective et le mieux est d’obtenir la satisfaction du mandant sur un échantillon avant de scanner l’ensemble des clichés.

Le format et le support des données est un élément peu critique, mais qui doit être coordonné entre le producteur des données en amont et l’utilisateur de ces données en aval.

Ici se termine la phase d’acquisition des données. Les étapes suivantes, consacrées au traitement et à l’exploitation de ces données, seront développés de façon approfondie dans les chapitres suivants. Il s’agit essentiellement des tâches suivantes :

• Aérotriangulation

• Génération de MNT

• Génération d’orthophotos

• Restitutions

Page 58: photogrammétrie

HEIG‐VD, G2C 58 / 141 F. Gervaix, février 2010

6.5. Résumé Une illustration de ce processus (« work‐flow ») par un exemple peu récent mais caractéristique a été retrouvé dans un document destiné à la formation des clients de LH Systems (1998 – 2001):

Page 59: photogrammétrie

HEIG‐VD, G2C 59 / 141 F. Gervaix, février 2010

7. Logiciels photogrammétriques

7.1. Introduction aux logiciels photogrammétriques Il existe une bonne dizaine de logiciels de photogrammétrie qui couvrent toutes les tâches de l’importation de données brutes à la production de délivrables, tels qu’orthomosaïques, semis de points (grille ou TIN) et courbes de niveau, vecteurs 3D, etc.

Si le principe est très similaire dans tous les logiciels, la succession des tâches, l’ergonomie, la nomenclature varie sensiblement. Comme souvent, on se lie à un logiciel un peu par hasard, un peu par affinité, un peu par confort.

Le département EC+G a la chance de disposer de trois logiciels qui sont probablement les trois plus répandus dans la pratique. Attention néanmoins, la pénétration de ces logiciels est bien inférieure à des logiciels de DAO ou de SIG, donc il ne faut pas s’attendre à les rencontrer dans de nombreux bureaux !

7.1.1 Caractéristiques importantes

• Rendu graphique rapide

• Zoom continu dans les images (pas de seuil)

• Positionnement du curseur à l’intérieur d’un pixel

• Chargement « intelligent » des images

• Conversion instantanée du système de coordonnées

• Auto‐corrélation rapide et fiable

• Auto‐corrélation basée sur la structure (≠ texture)

• Contrôles de qualité intégrés

• Données crées en formats compatible SIG (p. ex. shapefiles)

• Photogrammétrie et télédétection intégrées

7.2. Leica Geosystems LPS LPS – Leica Photogrammetry Suite ‐ est en fait un module de la suite ERDAS Imagine (logiciel de télédétection). C’est le logiciel utilisé en D61 pour l’initiation car il a une interface très didactique.

LPS Core est le nouveau module standard de photogrammétrie. A l’aide de ce module il est possible de réaliser sur des chantiers complets l’ensemble de la chaîne de traitements pour passer des images brutes à des images géométriquement et planimétriquement juste : orientation interne, orientation externe, prise de points d’appuis et liaison, triangulation, création d’orthoimages, création d’orthomaosaïques.

LPS Core incorpore en entrée un grand nombre de modèles de capteurs en entré dont les caméras métriques, les satellites SPOT, IRS 1C/D, IKONOS, Quickbird.

Les points clefs :

• Initialisation et gestion des projets avec le tableur CellArray™

• Import et export d'un grand nombre de types de données et de formats

• Travail dans un grand nombre de coordonnées systèmes, de projections de cartes et de datums

• Emploi de diverses unités de périphériques XYZ

• Visualisation et manipulation des images avec la fenêtre de visualisation GLTGeospatial Light Table™ d'IMAGINE

Page 60: photogrammétrie

HEIG‐VD, G2C 60 / 141 F. Gervaix, février 2010

• Définition et sauvegarde de propriétés des caméras

• Orientation interne automatique et semi‐automatique

• Génération d'orthomosaïques singulières ou en bloc avec orthorectification équilibrage des couleurs et mosaïquage

• Production de cartes numériques images

• Création et manipulation de MNT

Le module de triangulation n’est pas ou peu utilisé, au profit d’un logiciel spécifique pointu :

7.2.1 Leica Geosystems ORIMA

ORIMA ‐ Orientation Management software ‐ est le logiciel de Leica Geosystems écrit pour l'orientation des modèles et l'aérotriangulation. ORIMA est moderne, facile d'emploi, d'une grande productivité; il permet de traiter des grands blocs d'images avec des points d'appui, des points GPS et de détecter les erreurs et fautes tout en minimisant les phases de remesure.

Les points clefs:

• Le must en compensation par faisceaux avec auto‐calibration des clichés film et de l'imagerie ADS40

• Aérotriangulation en système de coordonnées non‐3D‐cartésiennes

• Traite les données GPS et IMU aéro (Inertial Measurement Unit)

• Technique de détection des erreurs et des fautes par méthode statistique avec élimination et détermination des zones de faiblesse dans le bloc

• Facile à appréhender, interface graphique d'emploi aisé pour analyse du bloc

• Numérotation des points, conduite sur le point, orientations internes, relative et absolue

• Mesure des points automatique et transfert des points d'appui sol

7.3. BAE Systems Socet Set Socet Set est un logiciel plus mûr, avec un passé militaire qui se ressent dans son apparence sobre. C’est le logiciel utilisé en D58 pour la production car il a une efficacité incomparable. Il fournit d’excellents résultats, robustes et rapides.

7.4. KLT Associates Atlas Atlas est un logiciel en constante évolution, avec ses inconditionnels et ses détracteurs. C’est un logiciel utilisé ponctuellement en D58, car il s’adresse à des utilisateurs avancés avec une interface originale et déroutante.

Page 61: photogrammétrie

HEIG‐VD, G2C 61 / 141 F. Gervaix, février 2010

8. Aérotriangulation L’aérotriangulation est une tâche très importante qui concerne le géoréférencement des images à l’aide des paramètres métriques de la caméra, du GPS et l’IMU embarqués, des points au sol (points d’appui et de contrôle) et, surtout, des lignes de vues ou rayons de l’image à l’objet en passant par le centre de projection.

Il s’agit de créer une relation entre le système de coordonnées « image » et le système de coordonnées « objet »

8.1. Les différentes orientations Une des difficultés de l’aérotriangulation est la multitude de translations et de rotations dans le plan et dans l’espace. La combinaison de translations et de rotations est appelée orientation. Chaque orientation est caractérisée par un certain nombre de paramètres, donc d’inconnues I à déterminer. Parallèlement, on dispose en général d’un nombre beaucoup plus grand d’observations (mesures N) et ces orientations sont toujours largement surdéterminées (surabondantes : redondances R). N‐I=R

8.1.1 Orientation interne

L’orientation interne consiste en la mise en correspondance de la géométrie de la caméra et celle de l’image. Le lien entre les deux se fait par les marques fiduciaires (fiducial marks ou fiducials), également appelées repères de fond de chambre.

Il s’agit de reconstruire la pyramide « centre de projection – cliché » pour chaque prise de vue. La géométrie de la caméra est décrite par le certificat de calibration. On y trouve, entre autre, la distance focale calibrée ck (ou CFL pour Calibrated Focal Length), la position de chaque marque fiduciaire et la position du centre de projection.

Les quatre ou huit marques fiduciaires permettent de déterminer une orientation dans le plan à quatre ou six paramètres.

4 paramètres : deux translations (x et y), une rotation (des axes orthogonaux x et y), un facteur d’échelle. C’est une transformation de similitude.

6 paramètres : deux translations (x et y), deux rotations (de l’axe x et de l’axe y) et deux facteurs d’échelle (selon x et selon y). C’est une transformation affine.

Kreiling, page 204 / Albertz & Wiggenhagen, page 246.

Page 62: photogrammétrie

HEIG‐VD, G2C 62 / 141 F. Gervaix, février 2010

8.1.2 Orientation (externe) relative

L’orientation externe relative consiste en la mise en correspondance de deux images voisines (= un modèle). Le lien entre les deux se fait par des points de liaisons ou de rattachement (tie points), c'est‐à‐dire des points quelconques du terrain mesurés dans les deux images. Les lignes de vues des deux images à l’objet passant par les centres de projection respectifs sont appelés rayons homologues.

On mesure en général six points dans chaque zone de recouvrement (appelé points de von Gruber). Ces points permettent de (sur‐)déterminer une orientation dans l’espace à six paramètres.

6 paramètres : trois translations (x, y et z) et trois rotations (autour des axes x, y et z).

Cependant, l’orientation étant relative, le paramètre x ne sert qu’à donner l’échelle du modèle. Ce n’est donc pas à proprement parler une inconnue (voir ci‐dessous la parallaxe).

Pour un modèle, on peut considérer que l’image de gauche (celle prise en premier) est fixe et que l’on cherche à replacer l’image de droite (celle prise en deuxième).

Une autre approche est de considérer uniquement les rotations par rapport à un système de coordonnées ad hoc (voir Kreiling, pages 213ss). Cette géométrie est plus difficile à appréhender.

Page 63: photogrammétrie

HEIG‐VD, G2C 63 / 141 F. Gervaix, février 2010

Tant que l’orientation relative n’est pas réalisée, les rayons homologues ne se coupent pas, ils sont gauches. L’intersection de deux rayons homologues avec un plan horizontal définit deux points. La distance en x entre ces deux points est appelée parallaxe longitudinale (ou horizontale) ; celle en y est appelée parallaxe transversale (ou verticale). On peut se déplacer le long des rayons jusqu’à ce que la parallaxe x soit nulle. La parallaxe y éventuelle est alors un indicateur de la qualité de l’orientation externe.

Mathématiquement, on utilise les équations de coplanarité appliquées aux points OG, OD, P’1 et P’’1 (mesure stéréoscopique de P1 dans les images droite et gauche), puis pour P2 à P5 (et P6 pour la surabondance).

On obtient finalement des coordonnées‐modèle (à mi‐chemin entre des coordonnées‐image et des coordonnées‐objet).

Kreiling, pages 213 à 220 / Albertz & Wiggenhagen, page 254.

8.1.3 Orientation (externe) absolue

L’orientation externe absolue consiste en la mise en correspondance d’un modèle avec le système de coordonnées « objet » (du terrain).

Il s’agit donc de déterminer une transformation à sept paramètres entre le système « modèle » et le système « objet ».

7 paramètres : trois translations (X, Y et Z), trois rotations (autour des axes X, Y et Z) et un facteur d’échelle. C’est une transformation d’Helmert.

Pour ce faire, on utilise des points d’appui (GCP pour Ground Control Point). Comme les points de liaisons, ils sont mesurés dans les deux images du modèle, mais contrairement aux points de liaison, ils sont bien définis et connus en coordonnées (X, Y, Z) dans le système « objet ».

⎥⎥⎥

⎢⎢⎢

−−−

=⎥⎥⎥

⎢⎢⎢

ji

ji

ji

jijij

ij

ZZYYXX

cyx

),,( κϕωλ R

Pour déterminer les sept paramètres, deux points 3D et un point 1D (altimétrique) suffisent pour une détermination sans surabondance.

On parle de transformation spatiale de similitude des coordonnées‐modèle xyz dans le système de coordonnées‐objet XYZ des points d’appui.

Kreiling, pages 44 à 46 et 220 / Albertz & Wiggenhagen, page 50 et 256.

Page 64: photogrammétrie

HEIG‐VD, G2C 64 / 141 F. Gervaix, février 2010

8.2. Aérotriangulation La séquence précédente est valable pour une approche « manuelle » où chaque paire de clichés est traitée séparément. Cette démarche était la seule possible avec les instruments analogiques et les premiers instruments analytiques. Or, l’apparition des instruments analytiques a permis d’automatiser certaines tâches, d’accélérer les calculs et d’imbriquer certaines opérations. Actuellement, en photogrammétrie numérique, il est très rare de pratiquer une orientation relative ou une orientation absolue. On travaille généralement par bloc photogrammétrique, regroupant plusieurs dizaines ou centaines de clichés. Le travail est bien plus efficace et économique. En une seule étape on détermine l’orientation externe (relative + absolue) de chaque cliché dans le système de coordonnées national. Cette opération unique est appelée aérotriangulation.

Kreiling, pages 205 à 212 / Albertz & Wiggenhagen pages 257 à 264.

L’aérotriangulation fait intervenir simultanément :

• les paramètres géométriques de la caméra, plus des paramètres de déformation éventuels.

• les mesures (x, y) dans le système de référence « image »

• les coordonnées (X, Y, Z) des points d’appui

• les coordonnées (X, Y, Z) ± approchées des centres de projection (par GPS)

• les rotations (ω, φ, κ) ± approchées des clichés (par IMU)

C’est donc une opération passablement complexe. Nous nous contenterons d’en comprendre les principes et le modèle stochastique.

Une approche, relativement facile à appréhender mais peu rigoureuse et peu précise, est la méthode des modèles indépendants et compensation de bandes d’aérotriangulation.

pp. 221‐227 / p. 257

On oriente complètement un modèle en bout de bande et on y joint modèle après modèle le reste de la bande.

Une évolution de la méthode ci‐dessus, plus précise et surtout plus robuste, est la compensation par bloc de modèles indépendants.

pp. 228‐234 / p. 258

Cette méthode fait intervenir massivement le calcul matriciel

Page 65: photogrammétrie

HEIG‐VD, G2C 65 / 141 F. Gervaix, février 2010

La méthode la plus efficace et pratiquement la seule utilisée aujourd’hui est la compensation par faisceaux (avec paramètres additionnels).

Les éléments d’orientation de chaque image, ainsi que les coordonnées « objet » des points de liaisons sont déterminés simultanément.

Kreiling, pages 235 à 243 / Albertz & Wiggenhagen, page 259.

Cette méthode est basée sur le modèle mathématique de la géométrie perspective et utilise directement les coordonnées « image » comme observation. Pour le calcul, on considère les faisceaux de rayons allant du centre de projection vers les points « images » en s’appuyant sur les équations de colinéarité (à

Page 66: photogrammétrie

HEIG‐VD, G2C 66 / 141 F. Gervaix, février 2010

comparer avec les équations de coplanarité vue précédemment). Un point « image », le centre de projection et le point « objet » correspondant (point de liaison ou point d’appui) sont alignés.

Ceci est la description mathématique qui, bien qu’essentielle et très intéressante, ne donne pas la vision globale du problème. Une approche plus intuitive de la question est une représentation graphique des éléments essentiels.

Ces éléments sont :

• les centres de projections

• les empreintes au sol des images

• les points de liaison (intra‐bande) et (inter‐bande)

• les points d’appui

• les points de contrôle

Figure 25: Représentation schématique des éléments essentiels d’un bloc d’aérotriangulation

La représentation schématique bidimensionnelle d’un petit bout de bloc est déjà assez complexe. En y ajoutant les faisceaux de rayons dans une vue perspective, on perçoit le principe de la compensation par bloc (voir ci‐après)

Page 67: photogrammétrie

HEIG‐VD, G2C 67 / 141 F. Gervaix, février 2010

Figure 26 : Représentation schématique en perspective des faisceaux de rayons

Figure 27: Autre représentation en perspective

Page 68: photogrammétrie

HEIG‐VD, G2C 68 / 141 F. Gervaix, février 2010

8.3. Rotations dans l’espace Le géomaticien est habitué à travailler avec des coordonnées dans l’espace (X, Y, Z ou E, N, H ou autres coordonnées tridimensionnelles). Moins commun est le travail avec des rotations dans l’espace. Quelques mises au point ne sont pas inutiles :

Une rotation, dans le plan ou dans l’espace, est définie de façon synthétique par une matrice orthogonale1, 2x2 dans le plan, 3x3 dans l’espace. Une matrice orthogonale R peut être décomposée en trois rotations partielles successives, par exemple Rω, Rφ, Rκ

Rappel : définition des rotations

Rω (ou ω) est la rotation autour de l’axe X, de l’axe Y sur l’axe Z

Rφ (ou φ) est la rotation autour de l’axe Y, de l’axe Z sur l’axe X

Rκ (ou κ) est la rotation autour de l’axe Z, de l’axe X sur l’axe Y

Sens : en regardant le long de l’axe depuis l’origine, dans le sens des aiguilles d’une montre (visser)

Pour des raisons historiques (origines germaniques de la photogrammétrie), les rotations sont souvent abrégées par D (pour Drehung).

Deux situations peuvent se présenter : la rotation autour d’axes tournants et la rotation autour d’axes fixes. Cela influencera la séquence des rotations. Dans le cas d’axes tournants, on applique les rotations dans l’ordre direct, Rω puis Rφ puis Rκ Dans le cas d’axes fixes, on applique les rotations dans l’ordre indirect, Rκ puis Rφ puis Rω Pour rappel, la multiplication des matrices n’est pas commutative (A · B ≠ B · A), donc la séquence des rotations est importante. Par convention, les rotations sont définies d’un système‐image xyz mobile vers un système‐objet XYZ fixe ; les axes sont donc généralement tournants.

1 Conditions entre les éléments d’une matrice orthogonale A

A · AT= E (matrice unité), ou A‐1 = AT

Page 69: photogrammétrie

HEIG‐VD, G2C 69 / 141 F. Gervaix, février 2010

Connaissant la matrice globale R = Rω · Rφ · Rκ il est aisé de déterminer les angles des rotations individuelles, tant pour un système d’axes fixes que pour un système d’axes tournants. En pratique, il est beaucoup plus sûr d’indiquer la matrice de rotation plutôt que les angles de rotation. Malheureusement, il est assez commun de « craindre » les matrices, plus difficiles à afficher, manipuler et enregistrer. Le plus souvent on rencontre les angles de rotation avec une indication de la séquence, ou en assumant l’ordre Rω, Rφ, Rκ ce qui est une pratique dangereuse.

8.3.1 Illustration par un exemple

Pour se convaincre, on peut étudier un exemple axonométrique, perspectif ou numérique.

Axes tournants

Figure 28: Séquence axonométrique, axe tournants

La figure ci‐dessus illustre une succession de trois rotations (φ, θ, ψ) = (−60°, 30°, 45°) avec des axes tournants (les rotations s’effectuent autour des axes noirs); X0Y0Z0 devient X1Y1Z0 après la première rotation de ‐60° autour de Z0, X1Y1Z0 devient X1Y2Z2 après la deuxième rotation de 30° autour de X1 et X1Y2Z2 devient X3Y3Z2 après la troisième rotation de 45° autour de Z2

Figure 29: Séquence perspective, axe tournants

0 ‐0.952 ‐0.305 0.000 Θ 30 1.000 0.000 0.000 0 0.525 ‐0.851 0.000

0 0.305 ‐0.952 0.000 0 0.000 0.154 0.988 0 0.851 0.525 0.000

Φ -60 0.000 0.000 1.000 0 0.000 ‐0.988 0.154 Ψ 45 0.000 0.000 1.000

‐0.952 ‐0.047 ‐0.301 ‐0.540 0.786 ‐0.301

0.305 ‐0.147 ‐0.941 0.035 ‐0.337 ‐0.941

0.000 ‐0.988 0.154 ‐0.841 ‐0.519 0.154

Figure 30: Séquence numérique, axe tournants

Page 70: photogrammétrie

HEIG‐VD, G2C 70 / 141 F. Gervaix, février 2010

Axes fixes

Figure 31: Séquence axonométrique, axes fixes

La figure ci‐dessus illustre une succession de trois rotations (φ, θ, ψ) = (45°, 30°, ‐60°) avec des axes fixes (les rotations s’effectuent autour des axes bleus).

Figure 32: Séquence perspective, axes fixes

0 0.525 ‐0.851 0.000 Θ 30 1.000 0.000 0.000 0 ‐0.952 ‐0.305 0.000

0 0.851 0.525 0.000 0 0.000 0.154 0.988 0 0.305 ‐0.952 0.000

Φ 45 0.000 0.000 1.000 0 0.000 ‐0.988 0.154 Ψ -60 0.000 0.000 1.000

0.525 ‐0.851 0.000 ‐0.540 0.786 ‐0.301

0.131 0.081 0.988 0.035 ‐0.337 ‐0.941

‐0.841 ‐0.519 0.154 ‐0.841 ‐0.519 0.154

Figure 33: Séquence numérique, axes fixes

Page 71: photogrammétrie

HEIG‐VD, G2C 71 / 141 F. Gervaix, février 2010

Les éléments constitutifs de la matrice peuvent être définis de façon synthétique (utile en programmation) ainsi :

Page 72: photogrammétrie

HEIG‐VD, G2C 72 / 141 F. Gervaix, février 2010

9. MNT par photogrammétrie La production d’un MNT est le plus souvent l’étape qui suit immédiatement l’aérotriangulation. Le MNT est parfois (de plus en plus rarement) une fin en soi, mais le plus souvent c’est une étape obligée avant l’orthorectification, l’extraction vectorielle 3D, etc.

Cette nécessité était absolue il y a quelques années encore : la photogrammétrie était le seul moyen d’obtenir une MNT pour une large superficie. De nos jours, cette opération est souvent remplacée par des MNT globaux par LiDAR, RADAR, interférométrie (SAR), etc.

9.1. Introduction Le MNT joue un rôle très important dans tous les processus photogrammétriques. Que ce soit pour le MNT en lui‐même, l’orthorectification ou la restitution 3D, le MNT a une fonction sous‐jacente essentielle. Une faute dans le MNT peut avoir des conséquences irréversibles sur les produits subséquents.

9.1.1 Modélisation mathématique d’un paysage = une étape très importante des processus photogrammétriques

• cartographie d’intervisibilité (télécoms)

• études hydrologiques

• éléments cartographiques (courbes de niveau)

• orthophotos

9.2. Définitions Dans tous les cas, il s’agit de modèles, avec ce que cela implique de généralisation et subjectivité. Attention à ne pas donner à un MN plus de signification qu’il en a intrinsèquement.

• MNE : modèle numérique d’élévation (générique)

• MNT : MNE du terrain uniquement

• MNS : MNE de valeur maximale

Figure 34: MNT versus MNS

On dit parfois que le MNS drape ou épouse les éléments du sursol. Par nature, le MNS est plus subjectif que le MNT.

• MNH : MN de hauteur = MNS – MNT

Généralement MNS – MNT ≥ 0, mais il n’est pas rare de rencontrer des valeurs légèrement négatives, pour cause d’imprécision numérique, de généralisation ou de décalage temporel.

Page 73: photogrammétrie

HEIG‐VD, G2C 73 / 141 F. Gervaix, février 2010

9.3. Spécifications Un certain nombre de paramètres sont nécessaires pour caractériser un modèle numérique d’élévation. Certains sont liés à l’aspect géographique de la donnée, d’autres sont liés à leur aspect informatique.

9.3.1 Paramètres « analogiques »

• géodésiques (ellipsoïde, projection, origine des altitudes, …)

• localisation géographique (coordonnées des coins, …)

9.3.2 Paramètres « numériques »

• format numérique (entier, réel, nombre d’octets …)

• unité

• structure de la grille

• dimension de la maille

Un exemple typique et très courant est le format ArcInfo ASCII GRID Il s’est imposé comme un standard grâce à sa simplicité et son efficacité. Une en‐tête de six lignes permet de diminuer la taille d’un MN par un facteur cinq par rapport à un MN en format trois colonnes xyz.

Figure 35: En‐tête de fichier ArcInfo ASCII GRID et séquence

Page 74: photogrammétrie

HEIG‐VD, G2C 74 / 141 F. Gervaix, février 2010

9.4. MN_: représentations Une difficulté récurrente est la représentation de l’objet à modéliser (terrain, sursol, etc.). Il s’agit toujours d’un modèle qui s’approche de la réalité de l’objet, le mieux possible, mais jamais parfaitement. Plusieurs modes sont envisageables, avec leurs forces et leurs faiblesses.

9.4.1 Grille à trame régulière GR (Grid, raster)

Posts alignés régulièrement dans le système de coordonnées. Ces posts ne sont pas forcément des points réels du terrain. Ils sont « placés » selon le système de coordonnées à intervalle régulier (pas ou maille) sans tenir compte du contenu du paysage.

Il existe une variante, peu fréquente, de grille à trame irrégulière.

9.4.2 Réseau irrégulier de triangles RIT (Triangulated Irregular Network TIN)

Mass Points et Breaklines répartis de façon judicieuse. Ces mass points et breaklines sont en principe des points réels du terrain. Ils sont « placés » en fonction de leur pertinence dans la modélisation du paysage. Leur distribution est très dépendante du contenu du paysage.

9.4.3 Surface décrite par courbes de niveau (intersection surface / plan)

C’est le moyen historique de modéliser le paysage, à l’ère graphique mais également à l’ère numérique. Le plus souvent cependant on se contente de produire des courbes de niveau à partir d’une grille ou d’un TIN, mais le contraire est possible et parfois judicieux.

9.5. Comparaison Grille <> TIN

9.5.1 Grille

• supporté par tous les logiciels

• gros fichiers simples

• niveau de détail dépendant du pas (spacing = maille) ; si on augmente le pas de la maille, on perd du détail, donc de l’information

• très similaire à une image raster (tons de gris)

• bien adapté aux surfaces 2.5 D Z = f (X, Y)

• échantillonnage spatial critique

• régions urbaines = discontinuités 3D

• modélisation facile mais pas générale

9.5.2 TIN

• supporté par les logiciels évolués

• petits fichiers complexes

• niveau de détail dépendant du choix des points critiques

• nécessite un algorithme d’interpolation (p. ex. Delaunay)

• z fonction des trois sommets voisins z = f (x,y,x1,y1,z1,x2,y2,z2,x3,y3,z3)

• échantillonnage adapté

• pente identique sur une facette, discontinuité entre facette

Page 75: photogrammétrie

HEIG‐VD, G2C 75 / 141 F. Gervaix, février 2010

9.6. Mesure de Z = mesure de la parallaxe x En photogrammétrie, la mesure de l’altitude Z (ou H, selon la référence choisie) revient à mesurer la parallaxe horizontale dans une paire d’images orientées.

La parallaxe x est qualifiée d’horizontale car il s’agit de l’axe gauche‐droite lorsqu’on observe une paire d’image en stéréoscopie (épipolaire), donc l’axe horizontal de l’écran en face de soi. La parallaxe y est dite « verticale » (axe bas‐haut de l’écran), bien qu’elle n’intervienne pas dans la mesure de l’altimétrie !

Pour rappel, si malgré le réglage soigneux de la parallaxe x, on observe encore un décalage entre l’image gauche et l’image droite (parallaxe y résiduelle), cela signifie que l’orientation des images est imparfaite. Pour remédier à ça, il faut remonter à l’aérotriangulation ou le géoréférencement direct.

Figure 36: Z = f (parallaxe x)

Page 76: photogrammétrie

HEIG‐VD, G2C 76 / 141 F. Gervaix, février 2010

9.7. Modes de création d’un MNT

9.7.1 Photogrammétrie

• corrélation automatique

• corrélation manuelle (édition)

• utilisation des points de liaisons de l’aérotriangulation

• très bonne précision (calculée)

• fiabilité questionnable (urbain)

• densité faible et variable (forêt)

9.7.2 LiDAR

Le LiDAR ne produit ni une grille, ni un TIN, mais bien un nuage de points. Ce n’est qu’après filtrage et classification qu’on obtient un TIN ou une grille après rééchantillonnage régulier.

9.7.3 RADAR ou SAR (Synthetic Aperture Radar = radar à synthèse d’ouverture RSO)

Depuis le milieu des années 2000, les RADAR (SAR) se sont fortement développé, aussi bien en satellitaire, mais également en aérien, ce qui est nouveau.

• aérien et satellitaire = mondial

• exemple : Shuttle Radar Topography Mission (SRTM) ftp://e0srp01u.ecs.nasa.gov/srtm/version2/

• très sensibles aux ondulations de terrain (interférométrie).

9.7.4 Interpolation de courbes de niveau

L’exemple parfait est le MNT25, qui a été (et est encore !) utilisé comme la référence absolue en altimétrie. Il s’agit pourtant d’une interpolation de courbes de niveau sur les cartes au 1 : 25'000, elles‐mêmes crées de façon graphique et parfois artistique !

9.7.5 Importation

Souvent, lors de la réalisation d’un chantier photogrammétrique, le MNT ou MNS est simplement importé. Sa provenance est très variable et son actualité parfois questionnable (orthomosaïque sur la base d’images récentes mais de MNT ancien ?!)

• de plus en plus répandu (MNT25, MNT‐MO)

• attention aux formats (simple = lourd, léger = complexe)

Page 77: photogrammétrie

HEIG‐VD, G2C 77 / 141 F. Gervaix, février 2010

9.8. Passage du MNS MNT Cette tâche s’apparente au filtrage / classification LiDAR. Voir le chapitre 10.15, p. 92 pour plus d’informations.

9.8.1 Trois approches:

• filtrage du sursol

o zones connexes

o emprises limitées

o contraste d’altitude

o reconnaissance de forme

• à partir d’une ortho

o remplacement des valeurs initiales par des valeurs interpolées

o sélection des points sols dans le MNS

• propagation à partir de point « seed »

o technique utilisée dans le LiDAR (TerraScan)

9.9. Passage de Grille TIN C’est une opération délicate, souvent nécessaire pour des raisons de volume de données, mais malheureusement dommageable en terme de qualité. On ne fait pas d’omelettes sans casser d’œufs !

• Gain en volume jusqu’à 90%

• Plus performant

• Triangulation de Delaunay optimisée pour la 3D

• Critère: « volume ajouté »

Page 78: photogrammétrie

HEIG‐VD, G2C 78 / 141 F. Gervaix, février 2010

9.10. MNT‐MO et MNS La Suisse dispose depuis 2002/3 d’un nouveau MNT/MNS acquis par LiDAR. C’est un effet collatéral du projet SAU. En 2009, la mise à jour du MNT est réalisée au coup par coup. Le MNS n’est pas mis à jour pour l’instant.

Figure 37: ortho + MNT‐MO brut

Figure 38: ortho + MNT‐MO grille 1m

Page 79: photogrammétrie

HEIG‐VD, G2C 79 / 141 F. Gervaix, février 2010

10. Scanners laser aéroportés (LiDAR)

10.1. Introduction Les scanners laser aéroportés existent depuis les années 90. Leurs performances n’ont cessé de s’améliorer et peut estimer qu’elles doublent chaque trois ans. Montés dans un avion ou à bord d'un hélicoptère, les systèmes lasers sont souvent combinés avec des caméras numériques matricielles genre 4k x 4k. L'acquisition simultanée des données laser et des images numériques est un avantage important. Le cap des 100'000 mesures par seconde a été franchi en 2005 par les différents fabricants tels que Optech ou Leica Geosystems. En fonction des applications, le scanner laser est réglé pour exécuter des mesures d'altitude avec une densité de points au sol variant de un point par 10 m² à près de cinq points par m², et une précision altimétrique de 5 à 20 centimètres. Les images numériques acquises en simultanée peuvent également avoir des résolutions aussi élevées que 3 cm pour un vol en hélicoptère et 10 cm pour un vol en avion.

10.2. Fonctionnement Une même impulsion laser émise par le scanner sera réfléchie par différents objets se trouvant sur son chemin. Le premier écho décrit la surface des objets ou de la végétation (MNE/MNS), tandis que le dernier décrit la surface du sol (MNT).

Le principe de mesure se base sur le fait que les coordonnées de chaque point sur la surface terrestre peuvent être calculées en déterminant d'une part la position de l'aéronef, et d'autre part les distances et direction entre le scanner embarqué et le point mesuré sur la surface terrestre.

Le système laser est composé de trois éléments principaux :

‐ Un GPS, qui mesure la position de l'aéronef avec une précision de quelques centimètres. Comme un GPS embarqué seul ne permet pas d'obtenir la position de l'aéronef avec une précision suffisante, celle‐ci est déterminée relativement à un ou plusieurs récepteurs GPS situés sur des points de terrain dont les coordonnées sont connues (méthode de positionnement relatif, dGPS) ;

‐ Une centrale inertielle, qui permet de mesurer les orientations du scanner laser. Cette mesure permet de tenir compte des mouvements de l'aéronef au cours du vol ;

‐ Un scanner laser, qui mesure avec une précision centimétrique la distance au sol en enregistrant le temps de vol aller‐retour des impulsions laser. Ces mesures de distance sont complétées par la mesure de l'angle de l'impulsion laser par rapport au scanner. Un miroir rotatif permet de scanner la surface terrestre avec une fauchée définie en fonction de l'angle de scannage et de la hauteur de vol.

En plus des données altimétriques, les données d'intensité sont enregistrées par le système laser. Ces données d'intensité consistent en l'intensité du signal retour des impulsions laser, et peuvent être utilisées pour la classification de l'occupation du sol, pour déterminer les attributs et propriétés des objets.

Les produits laser aéroporté sont utilisés dans les domaines suivants :

• Production de modèle numérique d'élévation à l'échelle nationale d'un pays

• Evaluation et cartographie de l'état des digues, barrages et autres ouvrages d'arts

• Gestion des risques

• Détection de changements et altération des données topographiques

• Modélisation urbaine du bruit, développement urbain

• Modèles hydrauliques, plans de prévention au risque d'inondation

• Réseau de télécommunications

Page 80: photogrammétrie

HEIG‐VD, G2C 80 / 141 F. Gervaix, février 2010

• Sylviculture

10.3. Données laser La définition la plus simple des données de laser est une collection de points X, Y, Z. L'explication la plus fondamentale des mesures de laser aéroporté est un nuage de points 3D décrivant la surface terrestre et chaque élément la composant (= MNT et sursol).

A partir des réflexions multiples émises par les objets observés/scannés, les systèmes lasers permettent de discriminer les échos reçus. Il est donc possible de différencier le dernier écho du premier écho, voire le second et le troisième avec certains systèmes. Le scanner laser capte également l'intensité de chaque impulsion. En combinant l’information de la caméra numérique, à chaque impulsion laser peut être associée une valeur RGB (couleur).

Le dernier écho caractérise le modèle numérique de terrain, c'est‐à‐dire le sol proprement dit n'incluant donc pas les obstacles comme les arbres, les maisons, les voitures etc. En ajoutant le premier écho, le modèle numérique d'élévation peut alors être calculé, comprenant tous les objets présents sur la surface terrestre au moment de l'acquisition.

La différence entre le premier et le dernier écho peut servir à modéliser certains éléments, comme la canopée par exemple.

Les données d'intensité permettent d'ajouter une information supplémentaire aux résultats décrits précédemment. En effet, grâce à la mesure de réflectivité des objets, il est maintenant possible de les classifier. Lorsque la valeur RGB est ajoutée ‐ autrement dit la couleur ‐ à l'élément scanné par le laser, il est possible de générer une image 3D, permettant alors d'automatiser plus facilement la classification des objets mesurés. C’est donc un véritable outil cartographique 3D.

A partir de logiciels spécialisés, il est possible de générer rapidement et efficacement des produits laser de base, des MNT et de MNE de très haute qualité.

Figure 39: Vue isométrique d'un nuage partiellement classé

Page 81: photogrammétrie

HEIG‐VD, G2C 81 / 141 F. Gervaix, février 2010

10.4. Définitions L’acronyme LiDAR signifie : Light Detection And Ranging = mesure d’intensité et de distance. Le principe (et l’acronyme) est similaire à celui du RADAR (Radio Detection And Ranging). Très brièvement, il s’agit de la mesure du décalage temporel entre l’émission d’une impulsion d’énergie laser et la détection d’un écho de cette impulsion (« return »). En général, le LiDAR n’utilise qu’une longueur d’onde ; le plus souvent 1064 nm, à cause de sa disponibilité.

On parle également de « Hard‐target LiDAR » ou LiDAR topographique par opposition au « Differential Absorption LIDAR » (DIAL) qui utilise des longueurs d’onde multiples et détecte la quantité d’énergie absorbée par longueur d’onde. Ses usages typiques sont : monitoring environnemental, détection d’agent biologique ou chimique.

10.5. Notion de nuage de points (3D) Le nuage de points (« point cloud ») est le produit brut du LiDAR. Ses caractéristiques essentielles sont :

• Les points suivent la distribution du système : on peut donc la paramétrer et la prédire (canevas). On cherche en général à décrire une grille à maille aussi carrée que possible.

• Les points ne tombent en général pas sur les lignes de structure/rupture, même à très haute densité de points. Certaines situations particulières permettent de détecter des lignes de structures, mais il y a encore une grande part d’extrapolation.

Les informations contenues dans le nuage de points sont :

• (X, Y, Z) (E, N, H) pour chaque point, mais pas seulement.

• Coordonnées WGS 84 (GPS), à transformer en coordonnées usuelles.

• Points séparés lors d’échos multiples, une impulsion peut produire jusqu’à cinq échos.

• Liens entre échos multiples, caractéristique « first of many », « intermediate », ...

• Intensité de l’écho, en général exprimée sur un octet (0 – 255).

• Par la nature du laser (1064 nm), similaire à une image proche infrarouge (NIR).

Attention : un nuage de points n’est pas un MNS !

Figure 40: Vue isométrique d'un nuage brut

Page 82: photogrammétrie

HEIG‐VD, G2C 82 / 141 F. Gervaix, février 2010

Figure 41: Exemple de représentation par intensité (à g.) et par altitude (à d.)

Il est particulièrement intéressant de jouer avec les différents modes de représentation afin d’identifier les éléments du paysage, tantôt « en relief » comme une colline ou une forêt, tantôt « plat » comme une piste d’aéroport ou un champ. Certains objets s’observent très bien dans les deux représentations (bâtiments, ruisseau creux).

Figure 42 : Vues isométrique après restitution (source: F. Bonzon, GEO2010)

Page 83: photogrammétrie

HEIG‐VD, G2C 83 / 141 F. Gervaix, février 2010

10.6. Géométrie du LIDAR Calcul de (X, Y, Z) ou des points à partir de:

• Position de l’appareil (X, Y, Z), ou plus précisément (latitude, longitude, altitude)

• Données GPS brutes acquises en l’air et au sol

• Attitude de l’appareil (roulis, tangage, lacet) (= roll, pitch, heading)

• Données IMU brutes acquises en l’air (impératif)

• Angle de scannage fauchée, mono‐ ou bi‐directionnel (sinusoïdale)

• Temps de propagation aller‐retour de l’impulsion laser

• Éléments atmosphériques

Figure 43: géométrie du LiDAR

En pratique, on détermine d’abord la trajectoire de la plateforme (trajectographie) en (lat, lon, alt, roulis, tangage, lacet). Ensuite, cette trajectoire est transformée dans le système de coordonnées usuelles et interpolée pour chaque impulsion laser. La distance (range) et l’angle de scannage (scan angle) est calculée pour chaque écho reçu. A l’aide de ces informations, on calcul un point lancé pour chaque écho, auquel on ajoute la valeur d’intensité et le numéro de retour. En répétant cette opération 100'000 fois par seconde, on génère le nuage de points. Chaque impulsion peut produire un, deux ou plus échos, d’où un nuage encore plus dense.

Pour rappel, le GPS associé fonctionne à 2 ou 5 Hz et l’IMU à 200 ou 400 Hz. Le laser est donc considérablement plus dense que ces deux informations.

Jusqu’à peu, la technologie ne permettait pas d’avoir plusieurs impulsions dans l’air simultanément. Cet obstacle à une fréquence plus élevée à haute altitude a été levé par la technologie du MPiA (Multiple Pulse in the Air). Voir le paragraphe 10.12, p. 90.

Page 84: photogrammétrie

HEIG‐VD, G2C 84 / 141 F. Gervaix, février 2010

10.7. Les échos multiples Le phénomène des échos multiples (« multiple returns ») est une propriété très intéressante du LiDAR.

En terrain nu (sans sursol), à une impulsion émise correspond le plus souvent exactement un écho reçu (taux de retour proche de 100%)

Dans les zones de végétation, à une impulsion émise peut correspondre plusieurs échos reçus. Le taux de retour est plus variable, théoriquement supérieur à 100% (plus d’un écho en moyenne par impulsion), en fait il est de l’ordre de 60‐90%, un certain nombre d’impulsions ne remontant jamais jusqu’au récepteur. Les échos multiples permettent d’égaliser quelque peu la densité de point en terrain couvert et découvert.

Figure 44: principe des échos multiples (1)

Page 85: photogrammétrie

HEIG‐VD, G2C 85 / 141 F. Gervaix, février 2010

Les conditions requises pour recevoir des échos multiples sont telles qu’ils ne sont pas garantis, comme il n’est pas garanti que le premier écho soit au sommet de l’arbre ou que le dernier soit au sol.

Figure 45: principe des échos multiples (2)

Une des conditions est que le signal traverse le feuillage lors destrajets aller et retour.

Une autre condition est que le signal retour soit suffisamment fort pour être détecté et suffisamment éloigné des autres échospour être discerné.

Une valeur typique de divergence du laser est 0.25 mrad, soit25 cm à 1000 m.

Attention : le décalage temporel entre deux échos estinfinitésimal (2 m aller‐retour = 13 ns), également comparé à la durée d’une impulsion (1000 m aller‐retour = 7 μs). Il faut donc être conscient de la technologie pointue utilisée, en particulierpour le récepteur d’échos.

Figure 46: Vue isométrique d'une maquette réalisée à partir de données LiDAR uniquement (source F. Bonzon, GEO2010). Voir p.

82 pour plus d’information

Page 86: photogrammétrie

HEIG‐VD, G2C 86 / 141 F. Gervaix, février 2010

10.8. Considérations de résolution Un LIDAR génère ~500 ‐ 1000 points par demi‐scan alors qu’une caméra génère ~4000 – 24’000 pixels par ligne. Il n’y a donc pas de comparaison possible en termes de résolution.

Figure 47: Comparaison de résolution (~1 m vs 0.25 m)

Par contre, l’image d’intensité du LiDAR est immédiatement une orthoimage.

Le LIDAR se combine très bien avec des caméras numériques de moyen format, en particulier en termes de largeur de champ et d’altitude d’acquisition.

10.9. Résumé des caractéristiques principales

Ce que le LiDAR fait :

Produit des données spatiales à haute densité, haute précision

Peut servir à orthorectifier des images aériennes

Voit la nuit

Révèle des éléments sous les arbres

Ce que le LiDAR ne fait pas :

Trouve les angles de bâtiments, les arrêtes et autres éléments identifiables sur des photos images aériennes

Page 87: photogrammétrie

HEIG‐VD, G2C 87 / 141 F. Gervaix, février 2010

Produit des photos haute‐résolution

Voit à travers les nuages

10.10. Exemples d’applications • Études de côtes marines et estuaires

• Zones inondables (cartographie et simulation)

• MNT sous végétation (en toutes saisons)

• Modèles urbains

• Évaluation de dommages (« rapid response mapping »

• Hydrologie, érosion

• « Corridor mapping », cartographie d’éléments linéaires (ligne HT, pipeline, autoroute, …)

• Activités minières (volumes, déblai/remblai, …)

Figure 48: Exemple de détection d’une ligne à haute tension (« first of many »)

Page 88: photogrammétrie

HEIG‐VD, G2C 88 / 141 F. Gervaix, février 2010

10.11. Exemple d’équipement: Leica ALS50 L’ALS50 se compose de trois éléments principaux :

• Ensemble « scanner » : 56 x 37 x 24 cm, 30 kg

• Caisson (« rack ») de contrôle : 48 x 52 x 64 cm, 64 kg

• Laptop : pour l’opérateur avec logiciel de contrôle

Figure 49: Leica ALS50 (scanner, laptop et rack, ancien modèle)

Le scanner prend la place d’une RC30 (plaque d’interface) et permet, en option, le montage d’une caméra 4kx4k.

Les composants principaux du scanner sont:

• Source laser

• Obturateur / atténuateur

• Mécanisme d’oscillation

• Basé sur le principe du galvanomètre: le courant, en traversant la bobine, induit dans celle‐ci un champ électromagnétique, ce qui provoque un pivotement par répulsion des champs magnétiques. Plus le courant est intense plus la bobine bascule.

• L’autre principe également très utilisé est le prisme rotatif. Techniquement plus simple (pas ou peu d'accélérations / décélérations), il est moins souple pour le réglage du FOV.

• Encodeur pour angle de scan

• Récepteur d’écho laser

• IMU

Le caisson de contrôle peut être éloigné du scanner (utile sur hélicoptère). Les composants principaux sont :

• SC – Contrôleur du système

• POS – Position and Orientation System (IMU + GPS)

Page 89: photogrammétrie

HEIG‐VD, G2C 89 / 141 F. Gervaix, février 2010

• GC – Contrôleur de l’oscillateur

• DL – Enregistreur des données

• LC – Contrôleur du laser

Le laptop permet le contrôle en vol des paramètres d’acquisition:

• FOV (« fiel of view » ou fauchée): 10° – 75°

• Scan rate: ajusté afin d’obtenir une distribution « carrée », calculé dans AeroPlan

• Pulse rate: fonction de la hauteur de vol et du FOV

• Range gate: fourchette de distances, permet de filtrer les nuages

• %R: taux de retour (80 ‐ 99% pour le premier écho, 0 à 20% pour le deuxième)

• Messages d’erreur éventuels des différents composants

Figure 50: GUI durant l'acquisition

10.11.1 Récepteur d’échos Un élément très important du système est le récepteur d’écho. Celui‐ci est prépondérant dans les situations suivantes :

• Permet de détecter des petits objets/surfaces à haute altitude

• Moins de “trous” dans les zone à faible réflectivité (e.g. asphalte)

• Haute altitude de vol:

• Plus large couverture pour des tâches à faible densité

• Vol à altitude constante, même en terrain montagneux

• Permet le vol dans des conditions difficiles (e.g. voile « haze », fumée, légère humidité)

Page 90: photogrammétrie

HEIG‐VD, G2C 90 / 141 F. Gervaix, février 2010

10.12. Performances Les chiffres ci‐dessous sont ceux de l’ALS50 en 2004 (systèmes installés) et en 2007 (infos sur le Web).

FOV ou FoV : field of view, largeur de champ ou fauchée, paramètre essentiel (et souvent réglable) d’un LiDAR

2004 2007

Altitude : 200 – 4,000 m AGL up to 6 km AGL

FOV : 10 ‐ 75 degrés up to 75°

Scan rate max : 412.33 (FOV°) ‐0.6548

= 36 Hz @ 40 FOV

= 24 Hz @ 75 FOV

up to 90 Plus le FOV est grand, plus le scan rate max est petit Pas un facteur limitant, car ajusté pour obtenir une distribution « carrée »

Pulse rate : 22 à 58 kHz max. 150 kHz Plus le FOV est grand, plus le pulse rate est petit Voir remarque ci‐dessous

Multi‐écho : 3 4 (1st, 2nd, 3rd and last)

Compensation du roulis :

automatique; fourchette = 75 – FOV°

Automatic adaptive roll compensation

Le « pulse rate » est l’argument principal dans la concurrence entre constructeurs. Il est aussi le plus délicat à comparer, car il faut savoir pour quelle hauteur de vol et quelle FOV une valeur est valable. Par exemple, les 150 kHz annoncées par Leica Geosystems ne sont valables que pour une hauteur de vol inférieure à 500 m. Au‐delà, les performances sont limitées par la vitesse de la lumière (eh oui !). Par exemple, à 4000 m AGL et 40° FOV, la distance oblique (« slant range ») est de 4257 m. Une impulsion mettra donc 28 μs à parcourir l’aller‐retour. La fréquence maximum théorique n’est donc plus que de 35 kHz.

Cette limite a longtemps été une barrière infranchissable. La solution réside dans le MPiA pour « Multiple Pulse in the Air » ou « impulsions multiples dans l’air ». Cette nouvelle technologie a été annoncée fin 2006 est maintenant bien documentée, mais est encore en cours de déploiement

Page 91: photogrammétrie

HEIG‐VD, G2C 91 / 141 F. Gervaix, février 2010

10.13. Précision obtenue

Figure 51: Précisons H et V (source: Leica Geosystems)

L’erreur due au GPS est à peu près constante (pas influencé par l’altitude).

L’effet de l’erreur de l’IMU et de l’encodeur augmente de façon quasi‐linéaire avec l’altitude et avec l’éloignement de la verticale (« off‐nadir angle »). 40° de FOV est une valeur typique.

La planimétrie (H pour horizontal) est 2 à 3 x plus influencé que l’altimétrie (V pour vertical)

(Les sauts sont dus à l’atténuateur du laser)

10.14. Étalonnage du système Une des caractéristiques importantes du LiDAR est l’absence de points d’appui. En effet, il n’est pas possible de mesurer un point prédéterminé au sol. Des points de contrôle altimétriques peuvent/doivent être utilisés pour contrôler les nuages de points (voir la procédure « Control Report » de l’exercice avec TerraScan).

Le système a donc besoin d’être étalonné très précisément, en particulier les paramètres de désalignement (« misalignment ») entre l’encodeur d’ange de scan et l’IMU.

Pour ce faire, des points de liaison doivent être mesurés. Il s’agit de points d’intensité très contrastée (par exemple : limite asphalte – herbe). L’opérateur mesure les (x, y) dans l’espace image (image d’intensité) et le système détermine l’altimétrie en fonction du nuage de points. C’est cette procédure qui est utilisée dans le logiciel d’étalonnage Attune (to attune : accorder)

Afin d’être efficace, l’acquisition d’une même zone doit être faite dans deux directions orthogonales, dans les deux sens et à deux altitudes de vol bien différentes (total : jusqu’à huit passages au‐dessus de la même zone).

Page 92: photogrammétrie

HEIG‐VD, G2C 92 / 141 F. Gervaix, février 2010

Figure 52: Interface pour la mesure des points de liaison

10.15. Logiciels pour le LiDAR Le traitement des données LiDAR nécessite des logiciels optimisés pour cette tâche. En effet, il n’est pas rare de traiter plusieurs millions de points simultanément. Les logiciels de DAO ne sont pas adaptés à cette tâche.

Une suite de logiciels très performants est la suite Terra de TerraSolid (Finlande) (www.terrasolid.fi). Il s’agit d’un paquet de MDL pour MicroStation. Ce n’est pas le seul logiciel de traitement des données LiDAR, mais c’est le plus performant et le plus répandu. En particulier, le module TerraScan permet les opérations suivantes :

• Classification automatique et manuelle des points d’un nuage

• Réduction des nuages de points

Page 93: photogrammétrie

HEIG‐VD, G2C 93 / 141 F. Gervaix, février 2010

• Visualisation 2D et 3D des points

• Outils spécifiques pour l’aide à la détection et modélisation de toits, lignes à haute tension, lignes de chemin de fer, etc.

L’efficacité du logiciel TerraScan réside dans sa capacité à digérer des nuages de plusieurs dizaines de millions), à travailler avec les vues de dessus et de côté et à proposer des modes d’affichage variés, comme illustrés ci‐dessous.

Figure 53: Représentations des données LiDAR dans TerraScan

TerraScan est non seulement utilisé pour le traitement des données LiDAR, mais est également très performant pour la manipulation de MNT sous forme de grille (p. ex ArcInfo ASCII Grid) ou de nuages de points (x, y, z). Il permet de travailler avec plusieurs couches et permet de faire des profils aisément.

L’autre module très utilisé est TerraModeler, qui permet les opérations suivantes :

• Création de TIN et courbes de niveau

• Import et ajout manuel de lignes de rupture

• Calcul de déblai et remblai

Page 94: photogrammétrie

HEIG‐VD, G2C 94 / 141 F. Gervaix, février 2010

10.16. Flux des données et des tâches Il existe une certaine similarité entre la préparation, l’acquisition et le traitement d’un chantier LiDAR et celle d’un chantier photogrammétrique. Le principe GIGO (« garbage in, garbage out ») s’applique également, alors attention à la planification et l’acquisition !

Figure 54: Flux de données et des tâches (source: Leica Geosystems)

10.17. Glossaire des termes LIDAR (en anglais) LIDAR – acronym for LIght Detection And Range, a radar‐like technology for measuring distance by measuring the length of time needed for a pulse of laser radiation to travel from the system to the target and back. For topographic LIDAR systems, the target is the ground.

Point cloud – the fundamental output of a LIDAR system, consisting of lat/lon/el triplets for each point on the ground that a laser pulse provided a reflection.

Point density – a measure of how tightly spaced the point cloud is on the planimetric view, typically described in terms of points per square meter. Since the pattern of the points varies with scan position, it is also useful to refer to “across‐track” and “along‐track” spacing at various points in the field of view. The “track” is the direction of flight.

Bare earth – a type of digital elevation data set, or point cloud, where data points falling on buildings or vegetation have been removed

Slant range ‐ the distance between the aircraft and the ground. This distance is greater than the flying height above terrain for points not at the nadir position.

Laser divergence – a measure of the amount the laser “footprint” expands as it leaves the system, typically and angle measured in milliradians. Typical LIDAR systems have laser divergences around 0.25 – 2.0 mr. The

Page 95: photogrammétrie

HEIG‐VD, G2C 95 / 141 F. Gervaix, février 2010

footprint, or spot size of a 0.25 mr laser grows by 0.25 meters for every 1000 meters travelled away from the system. At 1000 m slant range, the laser footprint would be ~0.25 meters in diameter.

Galvanometer –an electromechanical device used to rotate the LIDAR scan mirror. The device is similar in concept to a DC motor, where a rotational actuation force is generated when a drive current is applied to the windings. The direction of force reverses when the drive current is reversed. Unlike motors, galvanometers do not have brushes, and are thus restricted to a limited rotational excursion

Attenuator – a coated optical element used to reduce the amount of optical energy released by the laser system, particularly at low altitude. The amount of attenuation is measured in terms of optical density, or OD… a high OD attenuator transmits less laser energy than a low OD attenuator. The transmission is related to OD by the following equation:

transmission = 1/(10OD).

An OD 2.0 attenuator transmits 1/100 the laser energy hitting it.

Multiple targets – secondary return reflections from a single outbound laser pulse, typically from ground below trees or power lines.

Intensity mapping – measuring the strength of the reflected laser pulses to create lat/lon/intensity point clouds. This feature yields an intensity image that looks like a grainy photograph, but is the result of illumination at the laser’s 1064 nm wavelength.

Pulse rate – the rate at which the laser is fired, typically measured in kHz (kilohertz). A laser firing at 25 kHz fires 25,000 times per second. Each firing of the laser results in one or more return reflections that result in data points in the point cloud.

Return signal amplitude – the highest voltage recorded at the LIDAR receiver from a given reflection, indicative of the strength of the reflection.

AGC – initialism for Automatic Gain Control, a circuit that automatically adjusts the sensitivity of the LIDAR receiver depending on the strength of a typical reflection.

Scan rate – the rate at which the scan pattern is repeated, typically measured in Hz. A scanner operating at 20 Hz performs a left‐to‐right‐and‐back scan cycle 20 times per second. Maximum possible scan rate decreases with increasing FOV.

FOV – initialism for Field Of View, in this case a measure of the coverage angle of the LIDAR scanner. In conventional optical systems, the FOV is determined by the film size and lens focal length. In LIDAR systems, the FOV is determined by the scanning device used. Galvanometer scanners can be driven at any FOV up to the mechanical limit of the galvanometer.

Along‐track spacing – distance between successive scans in the flight direction.

Cross‐track spacing – distance between successive points perpendicular to the flight direction

Range gate – electronic circuit that sets the minimum slant range at which the LIDAR will record the distance for a return signal, typically used to reject false range readings due to atmospheric backscatter.

Page 96: photogrammétrie

HEIG‐VD, G2C 96 / 141 F. Gervaix, février 2010

11. Orthomosaïque L’orthorectification est l’étape qui suit la génération ou l’importation du MNT. Elle est parfois (de plus en plus souvent) une fin en soi. Elle est le plus souvent liée, voire confondue, avec la confection de la mosaïque. C’est pourquoi les deux aspects sont traités dans un chapitre commun. L’orthorectification classique est indépendante de l’extraction vectorielle 3D, alors que la True Ortho™ est absolument dépendante de ces informations vectorielles.

L’orthomosaïque (orthorectification + mosaïquage) est devenue omniprésente dans les SIG et est maintenant un produit numérique classique, alors que c’était un processus laborieux en photogrammétrie analogique et analytique. Des phénomènes comme Google Earth ont démocratisés l’orthomosaïque au point de la banaliser, mais sa confection reste une science délicate.

Les thématiques incluses dans l’orthomosaïque sont l’orthorectification, la mosaïque, les lignes de raccord (« coutures ») et les ajustements radiométriques

11.1. Introduction

11.1.1 Niveaux de rectification

Une prise de vue (analogique ou numérique) est en projection conique (film, 4kx4k, « frame ») ou cylindro‐conique (ADS40, la plupart des satellites). Elle ne peut donc pas être superposée à une carte pour deux raisons :

• le relief (au sens large) dans l’image : la topographie et le sursol.

• l’axe de visée n’est jamais parfaitement vertical, respectivement perpendiculaire à la surface terrestre.

On peut apporter une correction rigoureuse ou approchée :

• approchée = image redressé ou rectifiée

• rigoureuse = image orthorectifiée

Exemple de correction approchée: Microsation > Raster Manager > Déformer

La précision maximum de cette méthode: 1% (= 10’000 ppm…). Si cette méthode est intéressante pour des petites surfaces, pour des étendues de plusieurs km, ce niveau de précision est insuffisant.

11.1.2 Définition

L’orthophoto est une photographie rééchantillonnée pour la rendre superposable en tout point à une carte. Elle a donc une orientation constante (en général le Nord en haut), une échelle constante (en général exprimée en taille du pixel au sol GSD) et une référence géographique absolue.

Elle peut être enrichie de surcharges graphiques, par exemple :

• limites administratives

• toponymie

• aide à la lecture: tracés de routes, contours des bâtiments

cf. cours de Cartographie

Une définition synthétique personnelle est : « l’orthophoto est une image qui a la qualité graphique d’une photo aérienne et la qualité géométrique d’une carte ». Rappel utile:

• image géoréférencée = modèle géométrique associé

• exemple: photo brute et fichiers .sup

Page 97: photogrammétrie

HEIG‐VD, G2C 97 / 141 F. Gervaix, février 2010

• image géocodée = (ortho‐) rectifiée

• exemple: GeoTIFF ou TIFF et fichier .tfw

11.2. Procédé La bonne nouvelle est que le processus est 100% automatique en photogrammétrie numérique, MAIS...

La mauvaise nouvelle est que de nombreuses tâches connexes ne sont que semi‐automatiques.

• MNT (voir chapitre précédent)

• édition manuelle indispensable et lourde

• mosaïque (voir ci‐après)

• radiométrie

• géométrie des lignes de raccord

• surcharge graphique (cours de Cartographie)

• symbologie et généralisation

11.3. Enjeux Les enjeux de l’orthophoto sont énormes. On peut en citer quelques uns :

• Plus d’usagers de l’information géographique = moins de capacité à lire la carte (proportionnellement)

• Support de communication

• Exemple: aménagement du territoire, etc.

• Automatique = plus de compromis sur la qualité

• Mise à jour facile

• Exemple: SIG urbains = seule couche mise à jour systématiquement

11.3.1 Tendance générale

Exemple en Suisse: SWISSIMAGE

http://www.swisstopo.admin.ch/internet/swisstopo/fr/home/products/images/ortho.html « La mosaïque d'orthophotos SWISSIMAGE est un assemblage d'images aériennes numériques en couleurs sur l'ensemble de la Suisse et est mis à jour tous les 3 ans. » (source : swisstopo)

Il existe deux autres orthomosaïques à l’échelle du pays : la mosaïque SPOT (GSD : 5 m au mieux) et la mosaïque Landsat (GSD : 25 m au mieux), proposée par le NPOC.

Exemple en France: BD‐ORTHO

http://professionnels.ign.fr/ficheProduitCMS.do?idDoc=5287262 « Base de données Raster, la BD ORTHO® est devenue le support géographique de nombreuses applications dans les domaines de l'aménagement et de l'urbanisme, de l'environnement ou de l'agriculture, grâce à sa richesse en informations et à sa qualité géométrique. Elle est également présentée comme image géographique du territoire sur de nombreux sites Internet, en particulier sur le Géoportail.

Elle est disponible sur l'ensemble du territoire national une résolution de 50 cm.

La BD ORTHO® est également disponible à de meilleures résolutions (20, 30 ou 40 cm) sur de nombreux départements.

La BD ORTHO® est mise à jour tous les cinq ans. » (source : IGN)

Page 98: photogrammétrie

HEIG‐VD, G2C 98 / 141 F. Gervaix, février 2010

11.3.2 SWISSIMAGE: mise à jour

Figure 55 : État de la mise à jour (tel que fin 2009)

Level 1 et Level 2

Depuis l'année 2005, la grande partie des prises de vue aériennes est effectuée à l'aide d'une caméra numérique de type ADS40. Cette nouvelle caméra remplace la caméra analogique de type RC30 utilisée jusqu'ici. Avec ce changement, le processus de production ainsi que la qualité finale du produit se trouvent largement améliorés. Afin de différencier les images issues du processus analogique de celles enregistrées avec la caméra numérique, la notion de «level» a été introduite. Ainsi, le Level 1 contient toutes les images photographiées avec la caméra RC30, alors que le Level 2 regroupe celles enregistrées par la caméra numérique ADS40.

Page 99: photogrammétrie

HEIG‐VD, G2C 99 / 141 F. Gervaix, février 2010

11.3.3 SWISSIMAGE : système de numérotation

La mosaïque SWISSIMAGE est découpée en tuiles de taille raisonnable (17500 x 12000 soit 210 Mpixel, 600 Mo en format TIFF sans compression). Chaque tuile couvre 1/16 d’une carte nationale au 1:25'000. Un système de numérotation ingénieux permet d’identifier de manière univoque chaque tuile.

xxxx_11 xxxx_12 xxxx_21 xxxx_22

xxxx_13 xxxx_14 xxxx_23 xxxx_24

xxxx_31 xxxx_32 xxxx_41 xxxx_42

xxxx_33 xxxx_34 xxxx_43 xxxx_44

Figure 56: système de numérotation par tuile

11.4. Critères et facteurs de qualité Le processus d’orthorectification incluant des aspects géométriques et radiométriques, le risque d’imperfections est double. C’est pourquoi cette question est très importante.

11.4.1 Critères de qualité

Les critères de qualité définis par l’ENSG, respectivement l’IGN, sont les suivants :

• précision de la correspondance dans le système de référence national officiel

• stabilité de l’échelle de l’image

• inclusion des objets au‐dessus du sol

• qualité visuelle du mosaïquage

• présence de grands bâtiments

11.4.2 Facteurs de qualité (influence sur la qualité de l’image)

• Précision du MNT

• précision de la stéréopréparation, qualité de la restitution altimétrique (si créé)

• précision des altitudes du MNT (si importé)

• Paramètres de prise de vues

• aérotriangulation, y compris les paramètres du capteur

• Connaissance du système de référence planimétrique et altimétrique

• altitude usuelle, orthométrique, GPS

• Qualification, entraînement et soin de l’opérateur

• dans toutes les phases semi‐automatiques

Page 100: photogrammétrie

HEIG‐VD, G2C 100 / 141 F. Gervaix, février 2010

11.5. Confection des orthophotos numériques

11.5.1 Séquence des opérations

Figure 57 : Flux des taches pour l'orthomosaïque

11.5.2 Différence entre projection centrale et orthogonale

Les ingrédients étant établis lors des étapes précédentes, le calcul des orthoimages (ou orthorectification) peut avoir lieu. Il s’agit de passer de la projection centrale (celle des capteurs d’images) à une projection orthogonale (celle des cartes et plans).

En fait, l’orthoimage est établie (étendue et résolution). Ensuite l’altitude de chaque pixel est déterminée grâce au MNT.

Figure 58: En projection orthogonale, lien direct entre pixel de l’orthoimage et terrain

Connaissant alors la position tridimensionnelle du pixel, il est possible de remonter dans l’espace image grâce au modèle mathématique du capteur qui décrit la projection centrale et aux éléments d’orientation de l’image.

Page 101: photogrammétrie

HEIG‐VD, G2C 101 / 141 F. Gervaix, février 2010

Figure 59: En projection centrale, pas de lien entre pixel de l’image et terrain

11.5.3 Problèmes pratiques de production

Beaucoup d’éléments contradicteurs viennent rendre la production délicate.

• L’orthophoto est une image numérique artificielle (image « de synthèse »)

o « Elle n’est ni la photo ni la carte, et le client la veut tour à tour belle comme la photo et précise comme la carte »

• La taille

o n’est plus (vraiment) une limitation, quoi que… 183 Go pour le canton de Vaud

• L’interprétation des dévers du sursol

o cf. Figure 61 : focales large/courte et étroite/longue • Étirement des pixels

o cf. Figure 60 : principe de l'orthophoto • Type de paysage

o certains problèmes sont insolubles au mieux, « contourner » le problème

• Géométrie

o qui incriminer: le MNT ou la géoréférence des images ?

Page 102: photogrammétrie

HEIG‐VD, G2C 102 / 141 F. Gervaix, février 2010

11.5.4 Fichier World (*.tfw)

Le World file est un méta‐fichier minuscule, mais d’une grande utilité. Il est facile à manipuler dans un éditeur de texte et permet de transformer de simple TIFF en GeoTIFF !

Il n’est pas réservé aux TIFF, et les logiciels reconnaissent les fichiers *.jgw ou *.pgw

Son équivalent MapInfo est le fichier *.tab. L’information contenue est la même, mais le format est assez différent. Il est toujours de savoir passer de l’un à l’autre...

Le fichier World permet également de géoréférencer des orthoimages avec rotation, cas plus rare.

Page 103: photogrammétrie

HEIG‐VD, G2C 103 / 141 F. Gervaix, février 2010

11.6. Principe et production de l’orthophotographie Ceci est une retranscription de l’audition de sélection du 27 mai 2005 pour le poste de prof en photogrammétrie et imagerie géomatique. Elle constitue un bon résumé de la problématique.

11.6.1 Caractéristiques essentielles

• Image

Plaisant à l’œil, « joli », accessible et facilement interprétable.

Image raster (gros fichier difficile à stocker et manipuler).

• Projection orthogonale

« Sans projection ». Modèle du capteur pas nécessaire.

Pas de vision stéréoscopique. • Fidélité géométrique

Angles et distances conservés. Contraintes pour la création (acquisition, traitement).

11.6.2 Terrain jamais plat, caméra jamais verticale !

Conséquence : 1 pixel de l’ortho ≠ 1 pixel de la photo orientée.

Pour chaque pixel de l’orthophoto, on cherche la correspondance dans le terrain (espace objet) à l’aide du MNT, puis dans la photo orientée (espace image) grâce au modèle mathématique du capteur.

Figure 60 : principe de l'orthophoto

Page 104: photogrammétrie

HEIG‐VD, G2C 104 / 141 F. Gervaix, février 2010

11.6.3 Focales et zones masquées

En fonction de la focale utilisée, le dévers (cf. Première partie, § 3.9) sera plus ou moins important. Pour la production d’orthophoto, ces dévers conduisent à des zones masquées. C’est le cas régulièrement avec les bâtiments (d’où l’intérêt de la True Ortho™ (ou ortho intégrale), § 11.7). C’est parfois également le cas avec le terrain, ce qui est bien plus fâcheux. Dans tous les cas, une vue rasante du terrain est à éviter, car le contenu des pixels (et non pas le pixel...) est déformé et rend l’orthophoto inesthétique.

Pour cette raison, on utilisera le plus souvent une focale étroite (longue) pour des chantiers photogrammétriques en vue d’une orthomosaïque en milieu urbain. En volant plus haut, on obtient la même surface couverte qu’avec un grand‐angulaire, mais avec des zones masquées moindres.

Figure 61 : focales large/courte et étroite/longue

Page 105: photogrammétrie

HEIG‐VD, G2C 105 / 141 F. Gervaix, février 2010

11.6.4 Complexité de l’orthophoto intégrale

L’orthophoto intégrale est la réponse à ce problème de dévers et de zones masquées. Malheureusement, sa confection est très complexe et génère des contraintes sur le plan de vol et sur le traitement des données.

Schématiquement, il est nécessaire d’avoir une vue « tous azimuts » des objets et un modèle numérique de surface (raster, mais idéalement vectoriel).

Figure 62 : principe de la True Ortho (source : Infoterra ‐ ISTAR)

Figure 63 : exemple de TrueOrtho

Important : Un peu d’ombre permet d’estimer intuitivement la hauteur des bâtiments

Page 106: photogrammétrie

HEIG‐VD, G2C 106 / 141 F. Gervaix, février 2010

11.7. True Ortho™ (ou ortho intégrale) Limitations des orthophotos classiques

Les extensions du terrain, tels que les ponts, créent des problèmes dans les orthophotos classiques. Les MNT modélisent le sol, alors les ponts sont « tirés » vers le sol, leur donnant une apparence distordue. Les éléments élevés comme les bâtiments, les arbres, les pylônes) créent également des problèmes à cause du déplacement radial. La distorsion augmente avec l’éloignement des objets du centre l’image ; ainsi, les bâtiments donnent l’impression de pencher. Le dévers de l’objet dépend de la focale utilisée pour la prise de vue, du recouvrement entre images et de la hauteur de l’objet. Une focale de 303 mm et un recouvrement de 80% réduisent grandement l’effet de déversement des bâtiments. Les distorsions dégradent l’orthophoto d’un point de vue esthétique et fonctionnel.

Images « True Ortho »

The True Ortho method, developed by Sanborn Colorado, L.L.C., produces imagery that is rectified without building lean. Surrounding streets and other cultural features, ordinarily not visible in standard orthophotos, are clearly shown. This innovative process, using sophisticated production software and procedures, is called Method for the Elimination of Terrain and Relief Displacement in Orthophotography (METRO). With this method, more cadastral information can be captured from digital orthophoto imagery.

The METRO system uses stereometrically derived DTMs to fully rectify aerial images. DTMs are processed into triangulated irregular networks (TINs) to provide a more accurate representation of the terrain surface. This method reduces errors caused by interpolation from a regular grid of masspoints. TINs eliminate the waviness around sharp terrain breaks such as steep embankments, road edges, railway grades, and hydrographic features.

This process straightens bridges and buildings in images. It requires the collection of DTM data for bridges and buildings as well as for the ground below these features. Bridges and buildings are captured as separate polygons with true elevations, while the ground below each is also modeled. When the scanned image is rectified, both the bridge and the ground below will be accurately represented.

The most impressive and useful component of the METRO process is its ability to make buildings "stand up straight" so that all the information can be captured by the digital orthophoto. It involves collecting detailed data describing the tops of buildings. Compilers must photogrammetrically capture and model every building at roof level and every feature that rises more than 10 feet from a rooftop (e.g., vents, elevator shafts, turrets, slopes, and other changes in elevation). The highest point of each enclosed feature is also captured.

Compilers must also capture any outstanding features at ground level such as stairwells or courtyards that are part of the building. This data also includes the standard ground DTM capture. This raw, yet highly detailed, data can be used by ArcView 3.x with the ArcView 3D Analyst extension to provide a three‐dimensional view that can be scaled, rotated, and expanded and that is useful for city planning, developing, and marketing.

Once compilation of the planimetric features is complete, the digital orthophoto technician edits the DTM data. The technician builds two offset polygons from the original building polygon. The inner polygon will have the elevation of the rooftop taken from the captured roof spot. The outer polygon will have the elevation of the ground taken from the captured building. After building the offset polygons, the original polygon is discarded.

This data is used to automatically place building‐top imagery directly over the footprint of the building. Corresponding pieces of images available from the increased overlap are used to fill the imagery holes left after the building lean is corrected. When aerial photography is created, the amount of overlap and sidelap of the flight lines is very important. Ideally, the project area should be flown with an 80 percent overlap and 60 percent sidelap. A decrease in either of these values will eliminate the imagery that is inserted to

Page 107: photogrammétrie

HEIG‐VD, G2C 107 / 141 F. Gervaix, février 2010

compensate for the distortion of buildings in the original image. The result will be a blank area where the camera could not see the ground. Source : « Stand Up Straight—Ortho Perspective on Downtown Denver » de Lisa Haskell et Rob O'Donnell, Sanborn Colorado, L.L.C.

Figure 64 : Exemple de ponts "tirés" vers le sol (source : LH Systems)

Figure 65 : exemple de TrueOrtho dan Socet Set

Page 108: photogrammétrie

HEIG‐VD, G2C 108 / 141 F. Gervaix, février 2010

11.8. Lignes de raccord Les lignes de raccord entre images se recouvrant ont plusieurs noms synonymes :

• « coutures »

• seamlines

• cutlines

11.8.1 Zone de superposition de deux (ou plus) orthoimages

Chaque point au sol a deux (ou plus) représentations choix

La ligne de raccord sert donc à décider quelle image sera prise en considération. Ces lignes de raccord forment en général des polygones délimitant la « zone d’influence » de chaque image.

11.8.2 But: frontière invisible ou presque

Critère: différence entre les valeurs des pixels à droite et à gauche de la ligne de raccord. C’est une solution, en général difficile à réaliser, surtout si la radiométrie des deux images est très différente. L’autre solution étant de profiter des différences existant déjà dans les images, par exemple entre un champ en culture et en champ labouré.

11.8.3 Approche très différente selon le milieu

• urbain: géométrique (unité par quartier) ; dans ce cas, la préoccupation est de maintenir une unité de dévers entre des bâtiments voisins. La situation la pire serait évidemment un bâtiment traversé par une ligne de raccord…

• rural: radiométrique (unité par champ) ; dans ce cas, on s’appuie sur les différences existant dans le paysage et donc dans les images originales. C’est en général assez facile si on dispose de suffisamment de recouvrement pour bien « détourer » les champs.

11.8.4 Exemple pratique

Il s’agit de raccorder trois « tapis de pixels » ADS40 volés d’est en ouest afin de confectionner une tuile d’orthomosaïque. La question des raccords ne se pose que transversalement (au nord et au sud), les images étant continues dans le sens longitudinal. Le recouvrement latéral nominal est de 45%, la zone de recouvrement est donc confortable pour poser une ligne de raccord avec beaucoup de liberté.

Dans la Figure 66, on reconnait les zones de superposition en couleurs pleines (2 x 40%), les zones de non‐superposition voilées (5% en haut, 10% au milieu, 5% en bas) et les lignes de raccord manuelles en rouge. Total 110%, car la hauteur de la tuile considérée est plus grande que la largeur d’une image originale !

Dans la Figure 67, on peut voir la situation pour la mosaïque. L’image 1 forme la base, les images 2 et 3 la compléteront.

Page 109: photogrammétrie

HEIG‐VD, G2C 109 / 141 F. Gervaix, février 2010

.

Figure 66: Images superposées et lignes de raccord

Figure 67: Situation pour la mosaïque

Page 110: photogrammétrie

HEIG‐VD, G2C 110 / 141 F. Gervaix, février 2010

11.9. Égalisation radiométrique

11.9.1 Différences radiométriques entre clichés

• importantes = gênantes

Si les différences dans les images originales sont importantes, la meilleure ligne de raccord ne permettra pas de masquer les transitions. L’adage « rubbish in, rubbish out » est tout à fait approprié. Une situation classique est le cas des lacs : il est pratiquement impossible d’obtenir une radiométrie uniforme entre deux clichés et encore moins entre deux lignes de vol.

11.9.2 Causes

• mouvement du soleil ; ceci est particulièrement vrai entre deux lignes de vol (plusieurs minutes ou heures, voire jours entre deux lignes voisines)

• bords opposés de l’image (nord ≠ sud) ; ceci conduit à privilégier des vols sud – nord afin de mitiger les différences et d’utiliser au mieux le recouvrement longitudinal, en principe plus important que le recouvrement latéral.

• réglage du scanner ; c’est vrai pour l’argentique numérisé, mais ça reste valable pour le numérique, une matrice de CCD n’étant jamais parfaitement homogène et la calibration pas toujours à jour.

11.9.3 Remèdes

Le mot de la fin, pour se rassurer :

« Le problème de la modélisation des différences est très complexe, voire impossible. Les méthodes utilisées sont donc généralement empiriques. Elles possèdent des paramètres qui doivent être réglés manuellement et demandent une certaine expérience. » (ENSG – IGN)

Page 111: photogrammétrie

HEIG‐VD, G2C 111 / 141 F. Gervaix, février 2010

12. Restitution vectorielle (3D)

12.1. Définitions L’« extraction d’objets » (Feature Extraction , Feature Collection ) est utilisée pour créer et modifier des éléments vectoriels tri‐dimensionnels représentés dans les images raster.

Ces éléments peuvent être des points, des polylignes ou des polygones.

On parle aussi de digitalisation ou, plus classiquement, de restitution.

En raccourci, c’est de la DAO 3D sur la base d’images géoréférencées.

12.2. Éléments de base

12.2.1 Quelques faits singuliers

• L’extraction vectorielle est l’activité la plus ancienne et la plus simple de la photogrammétrie

o suivi de courbes de niveau sur restituteur

o photo‐interprétation sur photo papier

• L’apport du numérique est faible

o procédure essentiellement manuelle

o la 3D ne date pas du numérique

o enrichissement au niveau des attributs

• L’aspect le plus visible de la photogrammétrie

o réalité virtuelle 3D/ augmentée 3D

o bases de données, SIG vectoriels o portabilité du vectoriel vs. raster

Page 112: photogrammétrie

HEIG‐VD, G2C 112 / 141 F. Gervaix, février 2010

Figure 68: Principe de base, 2D + 2D = 3D

12.2.2 Éléments vectoriels

• Points:

o arbres, lampadaires, hydrantes, PFP (matérialisés), antennes, … ; texte

• Polylignes:

o routes (axe et bords), limites de couverture du sol, rivières, lignes HT, …

• Polygones:

o bâtiments (somme de polygones ≈ faces), lacs, …

Tous ces éléments sont déterminés en 3D en une seule opération

12.2.3 Quelques particularités

• Importance du MNT

o Détermine l’altitude de nombreux points ; on peut estimer que 90% des points sont « au sol »

o Pieds de bâtiments ; doivent se trouver au sol, sinon c’est une faute

o Rivières, routes (pas toujours!), objets divers Un MNT de qualité (détaillé, actuel) est indispensable avant de commencer une restitution vectorielle.

Page 113: photogrammétrie

HEIG‐VD, G2C 113 / 141 F. Gervaix, février 2010

Figure 69: Rappel du principe de la mesure de Z en fonction de la parallaxe x

• Extension: base de données ‐> SIG

o Propriétés d’affichage: couleur, symbole, …

o Topologie (3D!) (volume fermé)

o Attributs numériques ou textuels; acquisition simultanée

Comme tout ou partie du travail de restitution est semi‐automatique, il est intéressant d’utiliser l’intelligence de l’opérateur pour les tâches sémantiques plutôt que géométriques.

et créent une base de données, pas seulement un fichier DXF. Mais le format d’échange en val est, malheureusement, le DXF (plus petit dénominateur commun).

Le module Stereo Analyst de Leica Geosystems fait partie de la suite LPS. Il existe un module supplémentaire appelé « Stereo Analyst for ArcGIS » qui, comme son nom l’indique, permet la restitution stéréoscopique dans ArcGIS. Ainsi la compatibilité en aval est garantie car les données sont directement enregistrées dans ArcGIS.

12.2.4 Exemples d’applications

• Bâtiments et autres polyèdres pour des scènes 3D plus réalistes.

• Import/export de fichiers vectoriels (genre DXF) depuis/vers des logiciels de DAO

• Fusionner des fichiers d’éléments géomorphologiques comme les fonds de fossé et les lignes de crête pour enrichir un MNT

• Utiliser le MNT pour « tri‐dimensionnaliser » un fichier de vecteurs 2D

• Habiller une orthophoto pour impression sur papier

12.2.5 Fonctions de « mensuration »

Comme n’importe quelle DAO, les modules de restitution vectorielle disposent des fonctions habituelles telle que :

• Mesure de distance 3D (distance oblique, horizontale, verticale, azimut, pente)

• Mesure de surface et de volume

• Mesure de coordonnées 3D

Des fonctions supplémentaires sont souvent incluses ou développées en fonction des besoins, comme des canevas de toits (deux pans, quatre pans, chiens assis, …).

Page 114: photogrammétrie

HEIG‐VD, G2C 114 / 141 F. Gervaix, février 2010

12.3. Matériel nécessaire

12.3.1 Extraction stéréoscopique

• dispositif de visualisation stéréoscopique (voir ci‐dessous)

• deux images géoréférencées se superposant

• (un MNT)

Figure 70: Dispositif de visualisation stéréoscopique

12.3.2 Extraction monoscopique

• pas de dispositif spécial

• une image géocodée (orthophoto)

• un MNT (impératif)

• un MNS et/ou un MNH ou des informations de hauteur

Page 115: photogrammétrie

HEIG‐VD, G2C 115 / 141 F. Gervaix, février 2010

Figure 71: extrait du "20 Minutes" du 13.10.09 (http://3d.panasonic.net)

Page 116: photogrammétrie

HEIG‐VD, G2C 116 / 141 F. Gervaix, février 2010

12.4. Modélisation La modélisation du paysage s’effectue à partir de données géographiques décrivant l'altimétrie d'un territoire et d'orthophotos décrivant sa texture. Différentes couches de données sont ensuite ajoutées dans un référentiel géographique commun.

Des objets 3D géoréférencés dans une maquette 3D ajoute du réalisme et augmente la réalité virtuelle. Selon l’application ou le contexte de la maquette et l’échelle de visualisation, les objets doivent être modélisés avec plus ou moins de détails. On parle aussi de LOD (level of detail ou niveau de détail) ou NDR (niveau de représentation). Une des récentes normes en matière de modèles urbains 3D (CityGML) comprend cinq LODs. En voici un aperçu des cinq niveaux de LOD pour illustration :

LOD 0 Modèle régional

Modèle numérique de terrain permettant de montrer l’ensemble d’un paysage.

LOD 1 Modèle urbain

Modèle avec les bâtiments sous forme de blocs sans structures de toit, donnant ainsi une idée de la hauteur des bâtiments, hauteur réelle.

LOD 2 Modèle urbain

Modèle semblable au précédent mais avec les toitures réelles (forme, hauteur et orientation) et les surfaces texturées.

LOD 3 Modèle urbain

Modèle semblable au précédent mais plus détaillé d’un point de vue architectural.

LOD 4 Modèle intérieur

Modèle architectural « parcourable » avec des informations sur l’intérieur des bâtiments.

Figure 72 : Niveaux de détails selon norme CityGML

Page 117: photogrammétrie

HEIG‐VD, G2C 117 / 141 F. Gervaix, février 2010

Comme exemple particulier et très actuel, on peut mentionner l’exemple de « Bâti 3D », composant du « Socle 3D » du Canton de Genève. Le niveau de détail est un peu hybride, avec toitures et infrastructures, mais sans texture.

LOD 1b Modèle urbain

Modèle à mi‐chemin entre LOD 1 et le LOD 2. Il est sans texture (LOD 1), mais avec les toitures réelles (LOD 2), y compris les superstructures > 1 m2. Les es éléments sont répartis en cinq couches (base, façades principales, toits principaux, façades des superstructures, toits des superstructures), avec des couleurs génériques.

En ce qui concerne la végétation et en particulier les arbres, la modélisation s’avère très complexe et couteuse. Le recours à des outils très spécialisés est indispensable.

Figure 73: Exemple de LOD 2 (source : J. Comte, GEO2009)

Page 118: photogrammétrie

HEIG‐VD, G2C 118 / 141 F. Gervaix, février 2010

13. Télédétection Dans son acception la plus large, la télédétection désigne la mesure ou l'acquisition d'informations sur un objet ou un phénomène, par l'intermédiaire d'un instrument de mesure n'ayant pas de contact avec l'objet étudié.

C'est l'utilisation à distance (par exemple, d'un avion, d'un engin spatial, d'un satellite ou encore d'un bateau) de n'importe quel type d'instrument permettant l'acquisition d'informations sur l'environnement. On fait souvent appel à des instruments tels qu'appareils photographiques, laser, radar, sonar, sismographe ou gravimètre. La télédétection moderne intègre normalement des traitements numériques mais peut tout aussi bien utiliser des méthodes non numériques.

La télédétection spatiale, dans le domaine de l'astronautique, est l'ensemble des connaissances et des techniques utilisées pour déterminer les caractéristiques de la surface et de l'atmosphère de la Terre ou d'une autre planète, par des mesures effectuées à partir d'un engin spatial évoluant à distance convenable de cette dernière. Le terme correspondant en anglais est remote sensing from space.

Ce type de méthode d'acquisition utilise normalement la mesure des rayonnements électromagnétiques émis ou réfléchis des objets étudiés dans un certain domaine de fréquence (infrarouge, visible, micro‐ondes). Ceci est rendu possible par le fait que les objets étudiés (plantes, maisons, surfaces d'eau ou masses d'air) émettent ou réfléchissent du rayonnement à différentes longueurs d'onde et intensités selon leur état. Certains instruments de télédétection utilisent des ondes sonores de façon similaire, et d'autres mesurent des variations dans des champs magnétiques ou gravitaires.

Alors que l'astronomie pourrait être considérée comme de la télédétection (poussée à l'extrême), le terme télédétection est généralement réservé aux observations terrestres.

Les exemples de télédétection sont très nombreux :

• Les cartes topographiques sont souvent produites à l'aide de paires stéréographiques de photos aériennes permettant de recréer une image en trois dimensions.

• Les cartes thématiques sont produites à partir d’images prises à de multiple longueurs d’onde de radiation électromagnétique (multispectral) habituellement obtenues par des satellites d’observation de la Terre (« earth observation satellites »), par exemple le programme Landsat et le satellite IKONOS. Les cartes de couverture et d’utilisation du sol sont utilisées pour la prospection minière, la quantification de l’utilisation du sol ou évaluer la santé de la végétation, par exemple des cultures ou des forêts.

• Les modèles numériques de terrain peuvent être produits par interférométrie (à l'aide du radar à ouverture synthétique (Synthetic aperture radar SAR), méthode consistant à enregistrer une série de mesures de la cible à partir d'un avion, d'un satellite ou d'une navette spatiale. La combinaison des données issues de ces mesures offre une carte détaillée contenant de l'information sur la couverture du sol, le relief ou encore le mouvement à une échelle centimétrique. Les données couvrent généralement des bandes de plusieurs kilomètres de largeur.

13.1. Photogrammétrie et télédétection Quelques mises au point...

La photogrammétrie est l’approche géométrique (forme) de l’imagerie; la télédétection est l’approche radiométrique (nature)

La télédétection ne fait pas partie de la photogrammétrie, mais bien la photogrammétrie qui fait partie de la télédétection!

La photogrammétrie est un outil de la télédétection

La télédétection couvre un domaine plus large que la photogrammétrie

Page 119: photogrammétrie

HEIG‐VD, G2C 119 / 141 F. Gervaix, février 2010

La télédétection est associée (de façon réductrice) aux satellites

13.2. Éléments de base

13.2.1 Images satellitaires vs autres sources

Argumentation « marketing »

100% numérique

disponibilité quasi‐immédiate

riche en détails géométriques (pas sûr…) et radiométriques (certainement !)

prête pour l’interprétation, déjà géocodées

concurrence

dépendance du fournisseur (encore peu de fournisseurs)

résolution géométrique limitée (en particulier en multi‐spectral)

dépendance des conditions météo (plus marquée qu’en aérien)

stéréoscopie pas toujours idéale

prix

Avantages indiscutables

• Grandes surfaces à petite échelle

• Zones très éloignées

• Investissement initial raisonnable

• Compatibilité avec les SIG

• Archives déjà existantes

• Requiert peu de connaissances initiales

13.2.2 Caractéristiques fondamentales

Rappels à propos de la notion de résolutions

Résolution spatiale

• Taille de la zone couverte par un pixel

• GSD (Ground Sampling Distance) ou « taille d’échantillonnage au sol »

Résolution spectrale

• aptitude du capteur à distinguer des rayonnements électromagnétiques de fréquences différentes

• plus les intervalles de longueur d’onde sont étroits, plus la résolution spectrale est élevée

• dépend du dispositif de filtrage optique qui décompose l’énergie captée en bandes spectrales plus ou moins larges

Panchromatique

• meilleure résolution spatiale

Page 120: photogrammétrie

HEIG‐VD, G2C 120 / 141 F. Gervaix, février 2010

• utile pour extraire des informations géométriques

• pas utile pour de l’interprétation spectrale

Multispectrale

• 3 à 8 bandes spectrales

• résolution spatiale réduite d’autant

• En général: 0.50μm à 0.9μm (B à proche‐IR)

• Thematic Mapper: 0.45μm à 12.5μm (B à IR thermique)

Hyperspectrale

• >100 bandes spectrales hyper‐étroites (qq nm), contiguës

• résolution spatiale faible

• courbe de réflectance (permet de déterminer la nature du sol)

13.2.3 Domaines d’applications

Figure 74 : Domaines d'application et résolutions

Page 121: photogrammétrie

HEIG‐VD, G2C 121 / 141 F. Gervaix, février 2010

13.3. Synthèse fauchée / résolution

Figure 75 : Synthèse fauchée / résolution (source: Spotimage)

13.4. Analyse des données de la TD

13.4.1 Indice de végétation NDVI

Il s’agit d’un index parmi des centaines, qui est simple et utile. Le nom est une définition en‐soi :

Normalised Difference Vegetation Index ou Indice de végétation différentiel normalisé.

RPIRRPIRNDVI

+−

=

Utilise la particularité de la végétation

• creux dans le rouge (absorbé par la photosynthèse)

• pic dans l’infrarouge

différentiel

Le dénominateur atténue l’éclairement différentiel normalisé

Sert à évaluer l’importance de la biomasse végétale et l’intensité de la photosynthèse

En théorie, peut varier entre ‐1 et +1

En pratique, varie entre ‐0.5 et 0.8

Valeurs typiques : 0 0.2 faible activité ; 0.2 0.4 activité moyenne ; > 0.4 forte activité

Page 122: photogrammétrie

HEIG‐VD, G2C 122 / 141 F. Gervaix, février 2010

13.5. Satellites Un satellite, en astronomie, est un objet naturel ou artificiel qui se déplace en orbite autour d'un autre.

Satellites naturels

Un satellite naturel est un corps d'origine naturelle accomplissant sa révolution autour d'un astre principal (planète ou étoile) auquel il est lié par la gravitation et qu'il accompagne en même temps dans sa propre révolution.

Par exemple, la Lune est le satellite naturel de la Terre. Saturne et Jupiter en possèdent de nombreux.

Satellites artificiels

Un satellite artificiel est un objet issu de l'activité humaine et mis en orbite par l'Homme. Il s'agit d'un engin spatial lancé dans l'espace à une vitesse suffisante pour décrire une révolution autour de la Terre ou d'une autre planète, et destiné à transporter des cosmonautes ou à apporter des informations sur l'environnement de la planète considérée (photographiques ou données diverses) à des fins scientifiques, militaires ou de télécommunications.

De façon abrégée, le terme satellite désigne tout objet fabriqué par l'homme qui est destiné à devenir un satellite artificiel.

Le premier satellite artificiel Spoutnik I fut lancé par les soviétiques en 1957. Depuis cette époque, plus de 5 000 satellites artificiels ont été mis en orbite, ce qui engendre une pollution spatiale.

De nombreux satellites artificiels tournent actuellement autour de la Terre, mais aussi autour d'autres planètes du système solaire.

13.5.1 Classement des satellites en fonction de leur orbite

Orbite basse ou LEO (low Earth orbit), à défilement1

Une LEO est une orbite autour de la Terre entre l’atmosphère et la ceinture de radiations de Van Allen avec un angle d’inclinaison faible. Ces limites ne sont pas précisément définies, mais sont typiquement aux environs de 200 km à 1200 km au dessus de la surface de la Terre. C’est en dessous de l’orbite circulaire intermédiaire (ICO) et bien en dessous de l’orbite géostationnaires. Les orbites en dessous de LEO ne sont pas stables et se dégradent rapidement à cause du frottement de l’atmosphère. Les orbites plus élevées que LEO sont sujettes à des casses électroniques à cause des radiations intenses et de l’accumulation de charges. Les orbites avec une inclinaison plus élevées sont appelées orbites polaires.

La plupart des vols habités sont en LEO, y compris toutes les missions du la navette spatiales américaine Space Shuttle, avec l’exception notable du projet Apollo vers la Lune, qui a été au‐delà de LEO.

La plupart des satellites artificiels sont en LEO, où ils voyagent à 27'400 km/h (8 km/s), faisant une révolution en 90 minutes. L’exception principale est les satellites de communication qui nécessitent une orbite géostationnaire. Cependant, il est plus facile de placer un satellite en LEO et la puissance nécessaire pour la transmission de données est plus faible, c’est pourquoi LEO est encore utilisé pour beaucoup d’applications de télécommunication. Comme ces orbites ne sont pas géostationnaires, une constellation (ou réseau) de satellites est nécessaire pour garantir une couverture continue. Les orbites bases sont aussi intéressantes pour les satellites de télédétection car le niveau de détail obtenu est plus élevé. Il y a un

1 Satellites les plus bas

Page 123: photogrammétrie

HEIG‐VD, G2C 123 / 141 F. Gervaix, février 2010

grand intérêt pour les LEO héliosynchrones à une altitude d’environ 800 km avec une inclinaison polaire. ENVISAT utilise ce type d’orbite.

La gravité n’est pas beaucoup moindre que sur la surface de la Terre (elle diminue de 1% par 30 km), mais les personnes et objets sont en apesanteur (équilibre entre la gravité et la force centripète).

Géosynchrones GSO

L'orbite géosynchrone est une orbite située à 36 000 km d'altitude au‐dessus de la Terre. La caractéristique de l'orbite géosynchrone est qu'un corps se trouvant sur cette orbite possède une période de révolution très exactement égale à la période de rotation de la Terre, et paraît décrire un analemme1.

Géostationnaires GEO

L'orbite géostationnaire, parfois appelée orbite de Clarke, est une orbite située à 35 786 km d'altitude au‐dessus de l'équateur de la Terre, dans le plan équatorial et d'une excentricité nulle. C'est un cas particulier de l'orbite géosynchrone. Sa caractéristique est qu'un corps se trouvant sur cette orbite possède une période de révolution très exactement égale à la période de rotation de la Terre (c'est la caractéristique de l'orbite géosynchrone) et paraît immobile par rapport à un point de référence à la surface de la Terre. Cette caractéristique est particulièrement importante pour les satellites de télécommunications ou bien de diffusion de télévision. L’expression courante « satellite géostationnaire au‐dessus de l'Europe » (ou des États‐Unis) est donc erronée. La plupart des corps célestes possèdent une orbite présentant une telle caractéristique.

Héliosynchrones (télédétection)

Une orbite héliosynchrone est une orbite géocentrique qui combine altitude et inclinaison de façon à ce que l'objet passe au‐dessus d'un point donné de la surface terrestre à la même heure solaire locale à chaque fois. Une description plus détaillée est donnée en page 128.

Polaire

Un satellite en orbite polaire passe au‐dessus ou presque au‐dessus des deux pôles de la planète (ou d’un autre corps céleste) à chaque révolution. Il a donc uns inclinaison de (exactement ou à peu près) 90° par rapport à l’équateur. Comme le satellite a un plan orbital fixe perpendiculaire à la rotation de la planète, il passe au‐dessus d’une région avec une longitude différente pour chacune de ses orbites. Les orbites polaires sont souvent utilisées pour l’observation et la cartographie de la Terre, les satellites de reconnaissance et certains satellites météo. Les satellites pour l’observation des pôles (plus exactement, d’un pôle) ont une grande excentricité avec l’apogée au‐dessus le pôle considéré (long passage, mais grande distance).

13.5.2 Domaines d'utilisation des satellites

La séquence est tirée d’une information générale sur les satellites. Il est intéressant de constater que les satellites de télédétection sont en deuxième position, après les satellites de télécommunications, mais avant les satellites de positionnement GPS !

1 Analemme : figure en « 8 » tracée par les différentes positions du Soleil relevées à un instant donné et depuis un même lieu au cours d’une année calendaire dans le ciel lorsqu'il est observé depuis un point fixe de la surface de la Terre

Page 124: photogrammétrie

HEIG‐VD, G2C 124 / 141 F. Gervaix, février 2010

Satellite de télécommunications

Ces satellites sont utilisés pour transmettre des informations d'un point à l'autre de la Terre, notamment des communications téléphoniques ou de la transmission de données, les communications satellitaires et les programmes télévisés. Ces derniers transitent principalement par la flotte Eutelsat (Hot‐Bird, Atlantic Bird 3, W1,2,3, etc.) et celle de la SES ou Société Européenne de Satellites, Astra 1 et 2. Ces satellites dits aussi de diffusion directe émettent les bouquets payants (cryptés) TPS, AB SAT et C+ Canalsat, ainsi que des centaines de chaînes tv&radio en clair (gratuites), reçues sur une antenne, type parabole, domestique de petite dimension (parabole >60 cm) à faible prix, vue la forte puissance d'émission des engins orbitaux.

Satellite de télédétection

Ces satellites observent la Terre, dans un but scientifique (température de la mer, manteau neigeux, sécheresse, ...), économique (ressources naturelles, agriculture, ...) ou militaire. Le spectre d'observation est vaste, optique, radar, infrarouge, ultraviolet, écoute de signaux radioélectriques… Par exemple, les satellites SPOT, Landsat, IKONOS, QuickBird, OrbView, ENVISAT, ERS‐1 & 2, Formosat. Tous ces satellites sont décrits en détail en pages 130 à 138

Satellite de positionnement

Ces satellites permettent de connaître la position d'objets à la surface de la Terre, dans les airs (avions, missiles) et dans l'espace. Exemples : le système américain GPS, le système russe GLONASS, le futur système européen Galileo, DORIS (Doppler Orbitography by Radiopositioning Integrated on Satellite).

Satellite d'observation spatiale

Ces satellites observent l'espace dans un but scientifique. Il s'agit en fait de télescopes en orbite. Là aussi, le spectre d'observation est large. Exemple : le satellite Hubble.

Station spatiale

Ces satellites sont destinés à être habités par l'homme, dans un but scientifique. Après les stations russes Soyouz et Mir et la station américaine Skylab, la Station spatiale internationale est en orbite depuis 1998. Elle est habitée en permanence depuis 2002.

Sonde spatiale

Une sonde spatiale est destinée à observer un autre corps céleste et doit donc être en mesure de se déplacer dans l’espace en orbitant temporairement ou définitivement autour de la Terre, d'autres planètes, de satellites de planètes ou d'astéroïdes.

Page 125: photogrammétrie

HEIG‐VD, G2C 125 / 141 F. Gervaix, février 2010

13.6. Orbite En mécanique céleste, une orbite est la trajectoire que décrit dans l'espace un corps autour d'un autre corps sous l'effet de la gravitation.

L'exemple classique est celui du système solaire où la Terre, les autres planètes, les astéroïdes et les comètes sont en orbite autour du Soleil, de même que les lunes sont en orbite autour des planètes.

De nos jours, beaucoup de satellites artificiels sont en orbite autour de la Terre.

Les trois lois de Kepler (Loi des orbites, Loi des aires, Loi des périodes) permettent de déterminer par le calcul le mouvement orbital.

13.6.1 Éléments orbitaux

Une orbite elliptique peut se définir dans l'espace selon six paramètres permettant de calculer très précisément la trajectoire complète. Deux de ces paramètres (excentricité et demi‐grand axe) définissent la trajectoire dans un plan, trois autres (inclinaison, longitude du nœud ascendant et argument du péricentre) définissent l'orientation du plan dans l'espace et le dernier (instant de passage au péricentre) définit la position de l'objet. Voici la description plus détaillée de ces paramètres :

Demi‐grand axe a : la moitié de la distance qui sépare le péricentre de l'apocentre (le plus grand diamètre de l'ellipse). Ce paramètre définit la taille absolue de l'orbite. Il n'a de sens en réalité que dans le cas d'une trajectoire elliptique ou circulaire (le demi‐grand axe est infini dans le cas d'une parabole ou d'une hyperbole)

Excentricité e : une ellipse est le lieu des points dont la somme des distances à deux points fixes, les foyers (S sur le diagramme), est constante. L'excentricité mesure le décalage des foyers par rapport au centre de l'ellipse (C sur le diagramme); c'est le rapport de la distance "centre foyer" au demi‐grand axe. Le type de trajectoire dépend de l'excentricité :

Figure 76 : Orbite elliptique

e=0 : trajectoire circulaire

0<e<1 : trajectoire elliptique

e=1 : trajectoire parabolique

e>1 : trajectoire hyperbolique

Page 126: photogrammétrie

HEIG‐VD, G2C 126 / 141 F. Gervaix, février 2010

Figure 77 : Paramètre orbitaux

Inclinaison i : l'inclinaison (entre 0 et 180 degrés) est l'angle que fait le plan orbital avec un plan de référence. Ce dernier étant en général le plan de l'écliptique dans le cas d'orbites planétaires (plan contenant la trajectoire de la Terre).

Longitude du nœud ascendant : il s'agit de l'angle entre la direction du point vernal et la ligne des

nœuds, dans le plan de l'écliptique. La direction du point vernal γ est la droite contenant le Soleil et le point vernal (point de repère astronomique correspondant à la position du Soleil au moment de l'équinoxe du printemps). La ligne des nœuds est la droite à laquelle appartiennent les nœuds ascendant (le point de l'orbite où l'objet passe du côté nord de l'écliptique) et descendant (le point de l'orbite où l'objet passe du côté sud de l'écliptique).

Argument du périhélie ω : il s'agit de l'angle formé par la ligne des nœuds et la direction du périhélie (la droite à laquelle appartiennent le Soleil et le périhélie de la trajectoire de l'objet), dans le plan orbital. La longitude du périhélie est la somme de la longitude du nœud ascendant et de l'argument du périhélie.

Instant τ de passage au périhélie : La position de l'objet sur son orbite à un instant donné est nécessaire pour pouvoir la prédire pour tout autre instant. Il y a deux façons de donner ce paramètre. La première consiste à spécifier l'instant du passage au périhélie. La seconde consiste à spécifier l'anomalie moyenne M de l'objet pour un instant conventionnel (l'époque de l'orbite). Il faut noter que l'anomalie moyenne n'est pas un angle physique mais spécifie la fraction de l'orbite accomplie par l'objet depuis son dernier passage au périhélie, exprimée sous forme angulaire. Par exemple, si l'objet a parcouru le quart de son orbite, son anomalie moyenne est 0,25×360° = 90°. La longitude moyenne de l'objet est la somme de la longitude du périhélie et de l'anomalie moyenne.

Page 127: photogrammétrie

HEIG‐VD, G2C 127 / 141 F. Gervaix, février 2010

13.7. Période Lorsqu'on parle de la période d'un objet, il s'agit en général de sa période sidérale, mais il y a plusieurs périodes possibles :

Période sidérale ‐ Temps qui s'écoule entre deux passages de l'objet devant une étoile distante. C'est la période « absolue » au sens newtonien du terme.

Période anomalistique ‐ Temps qui s'écoule entre deux passages de l'objet à son périastre. Selon que ce dernier précesse1 ou récesse, cette période sera plus courte ou longue que la sidérale.

Période draconitique ‐ Temps qui s'écoule entre deux passages de l'objet à son nœud ascendant ou descendant. Elle dépendra donc des précessions des deux plans impliqués (l'orbite de l'objet et le plan de référence, généralement l'écliptique).

Période tropique ‐ Temps qui s'écoule entre deux passages de l'objet à l'ascension droite zéro. À cause de la précession des équinoxes, cette période est légèrement et systématiquement plus courte que la sidérale.

Période synodique ‐ Temps qui s'écoule entre deux moments où l'objet prend le même aspect (conjonction, quadrature, opposition, etc.). Par exemple, la période synodique de Mars est le temps séparant deux oppositions de Mars par rapport à la Terre; comme les deux planètes sont en mouvement, leurs vitesses angulaires relatives se soustraient, et la période synodique de Mars s'avère être 779,964 d (1,135 années martiennes).

1 La précession est le changement graduel d'orientation de l'axe de rotation d'un objet quand un couple lui est appliqué. Ce phénomène est très visible avec une toupie. Lorsqu'un objet précesse, l'inclinaison de son axe se déplace en cercle dans la direction opposée à celle de la rotation de l'objet. Si la vitesse de rotation et le couple sont constants, l'axe de rotation décrira un cône dont le mouvement sera à tout moment perpendiculaire à la direction du couple. La précession des équinoxes est le lent changement de direction de l'axe de rotation de la Terre. Ce changement de direction est provoqué par le couple qu'exercent les forces de marées de la Lune et du Soleil sur le renflement équatorial de la Terre. Ces forces tendent à amener l'excès de masse présent à l'équateur vers le plan de l'écliptique. La Terre étant en rotation, ces forces ne peuvent changer l'angle entre l'équateur et l'écliptique mais provoquent un déplacement de l'axe de rotation de la Terre dans une direction perpendiculaire à cet axe et au couple. Ce déplacement s'appelle précession et a pour résultat que l'axe de rotation de la Terre décrit un cône dont un tour complet est effectué en environ 25 800 ans. Comme l'orbite de la Lune est inclinée par rapport à l'écliptique, l'action de la Lune vient légèrement perturber la précession en y ajoutant de petites oscillations dont la période est de 18,6 ans et l’amplitude de 17.2’’ (secondes d'arc). Cet effet s'appelle la nutation.

Page 128: photogrammétrie

HEIG‐VD, G2C 128 / 141 F. Gervaix, février 2010

13.8. Orbite héliosynchrone De façon rigoureuse, une orbite héliosynchrone, par analogie avec l'orbite géosynchrone, est une orbite héliocentrique de rayon ~24,360 Gm (0,1628 ua1) telle que la période de révolution de l'objet coïncide avec la période de rotation du Soleil. L'orbite héliostationnaire est l'orbite héliosynchrone d'inclinaison et d'excentricité zéro.

Une orbite héliosynchrone est aussi une orbite géocentrique qui combine altitude et inclinaison de façon à ce que l'objet passe au‐dessus d'un point donné de la surface terrestre à la même heure solaire locale à chaque fois. Ceci est désirable lorsqu'on prend de photographies en lumière visible, car l'angle d'illumination solaire sera quasiment le même lors de chaque cliché (satellites météos, espions, de télédétection, etc.). Il y aura, bien entendu, une oscillation annuelle de l'heure solaire du passage à cause de l'excentricité de l'orbite terrestre (analemme, voir en page 122).

Ces orbites sont possibles pour une gamme d'altitudes (typiquement 600–800 km, pour des périodes de 96–100 min) parce que le bourrelet équatorial de la Terre fait précesser l'orbite du satellite à un rythme qui dépend de son inclinaison (environ 98° pour les altitudes susmentionnées), ce qui permet de choisir une inclinaison qui donnera le taux désiré (360° par an). Des variations sont possibles sur ce type d'orbite; un satellite pourrait avoir une orbite héliosynchrone fortement excentrique, auquel cas « l'heure solaire fixe de passage » n'est pertinente que pour un point donné de l'orbite (typiquement le périgée). La période orbitale choisie dépend, elle, du taux de revisite désiré; le satellite traverse le plan équatorial à la même heure solaire à chaque passage, mais à une longitude différente lors de chaque passage car la Terre tourne sous lui. Par exemple, une période orbitale de 96 min, qui se divise entièrement dans un jour solaire (15 fois) signifiera que le satellite traversa l'équateur à quinze longitudes différentes lors d'orbites consécutives, pour revenir à la première longitude à chaque quinzième passage, une fois par jour.

L'orbite midi/minuit est un cas particulier de l'orbite héliosynchrone où l'heure solaire fixe de passage est aux environs de midi ou minuit pour les longitudes équatoriales. L'orbite crépusculaire, similairement, est une orbite héliosynchrone dont l'heure solaire fixe de passage coïncide avec le lever ou le coucher du Soleil.

Au fur et à mesure que l'altitude du satellite augmente, l'inclinaison requise augmente aussi, si bien que l'utilité de l'orbite diminue doublement : premièrement parce que les clichés du satellite sont pris de plus

1 L'unité astronomique (symbole ua) est la longueur moyenne du demi‐grand axe de l'orbite terrestre. Elle sert d'unité de distance dans le système solaire ou dans des systèmes planétaires. C'est une unité en dehors du système international (SI) en usage avec lui mais dont la valeur est obtenue expérimentalement. La définition précise doit tenir compte du fait que la Terre a une orbite elliptique autour du Soleil. En 1976, elle a été définie comme la distance au Soleil d'une particule de masse négligeable sur une orbite non perturbée et qui aurait une période orbitale de 365,256 898 3 jours. Depuis 1996, l'unité astronomique peut‐être évaluée à 149'597'870'691 m ou 1.5⋅1011 m. Une année‐lumière vaut approximativement 63 241 ua.

Source documentaire :

http://fr.wikipedia.org

« Wikipédia, encyclopédie librement distribuable que chacun peut améliorer »

Divers auteurs. Source : Wikipédia – mot‐clé (http://fr.wikipedia.org/wiki/mot‐clé). Ces articles sont sous licence GFDL

Page 129: photogrammétrie

HEIG‐VD, G2C 129 / 141 F. Gervaix, février 2010

en plus loin, et deuxièmement parce que l'inclinaison croissante implique que le satellite ne survolera pas les hautes latitudes. Un satellite héliosynchrone conçu pour survoler la France, par exemple, devrait avoir une inclinaison de 129° ou moins, ce qui implique une altitude de ~4450 km ou moins.

L'orbite héliosynchrone est également possible autour de certaines autres planètes, comme Mars.

13.8.1 Orbite circulaire quasi‐polaire

Figure 78: Orbite quasi‐polaire et trace (pas à l'échelle)

Page 130: photogrammétrie

HEIG‐VD, G2C 130 / 141 F. Gervaix, février 2010

13.8.2 Passages successifs (descendants)

Figure 79: Représentation schématique des nœuds descendants (et ascendants)

13.9. Satellites utilisés en télédétection

13.9.1 Ikonos

Ikonos est un satellite d’observation de la Terre commercial qui collecte des images à 1 et 4 m de résolution. Il acquiert des images multispectrales et panchromatiques. Il fournit des images depuis le 1er janvier 2000. La compagnie Space Imaging, Inc. commercialise ces images sous le nom de produit Carterra. Space Imaging est sur le point (état : décembre 2005) de se faire racheter par OrbImage (voir OrbView ci‐dessous).

Historique

Ikonos vient du mot grec signifiant « image ». Ikonos‐1 était planifié pour un lancement en 1999, mais le lancement a échoué. Ikonos‐2 était planifié pour un lancement en 2000, mais a été renommé Ikonos et lancé le 24 septembre 1999 pour remplacer Ikonos‐1. Il a une orbite polaire, circulaire, héliosynchrone à 681 km d’altitude et les deux senseurs (multi et pan) ont une fauchée de 11 km. Son poids est de 720kg.

Caractéristiques

Résolution spatiale :

• 1 m panchromatique (1‐m PAN)

• 4 m multispectral (4‐m MS)

• 1 m « pan‐sharpened » (1‐m PS)

Page 131: photogrammétrie

HEIG‐VD, G2C 131 / 141 F. Gervaix, février 2010

Résolution spectrale :

• 1‐m PAN

• 0.450‐0.900 µm

• 4‐m MS & 1‐m PS

• 1 (bleu B) 0.445‐0.516 µm

• 2 (vert V) 0.506‐0.595 µm

• 3 (rouge R) 0.632‐0.698 µm

• 4 (proche infrarouge) 0.757‐0.853 µm

Résolution temporelle :

La fréquence de revisite est de 3 à 5 jours dépointé (« off-nadir ») et de 144 jours pour le nadir véritable (« true-nadir »).

Fauchée / empreinte au sol :

11 km x 11 km pour une scène

13.9.2 QuickBird

QuickBird est un satellite d’observation à haute résolution de la Terre commercial, propriété de DigitalGlobe, qui a été lancé le 18 octobre 2001. Il acquiert des images panchromatiques à une résolution de 60‐70 cm et multispectrales à une résolution de 2.4‐2.8 m.

Caractéristiques

Capteurs

• 61 cm panchromatique au nadir

• 2.44 m multispectral au nadir

• Bandes: bleu, vert, rouge, proche infrarouge

Fauchée et empreinte au sol

• Fauchée nominal : 16.5 km au nadir

• Largeur au sol accessible : 544 km, centrée sur la trace au sol du satellite (jusqu’à 30° dépointé).

• Surface considérée :

• Surface simple: 16.5 km par 16.5 km

• Bande (ou scène): 16.5 km par 165 km

Orbite

• Altitude: 450 km – inclinaison : 98° héliosynchrone.

• Fréquence de revisite: 1 à 3.5 jour, en fonction de la latitude, à une résolution de 70 cm.

• Angle de vue : appareil agile, dépointage longitudinal et latéral.

• Période 93.4 minutes

Véhicule spatial

• Carburant pour 7 ans

• 950 kg, 3.04 m de long

13.9.3 Spot

Les satellites Spot (Satellite Pour l'Observation de la Terre) sont une série de satellites civils d'observation du sol terrestre.

Page 132: photogrammétrie

HEIG‐VD, G2C 132 / 141 F. Gervaix, février 2010

Historique

Décidé en 1978 par la France, le programme Spot est réalisé par le CNES (Centre national d'études spatiales) en collaboration avec la Belgique et la Suède. Il est composé d'une série de satellites et d'infrastructures terrestres pour le contrôle et la programmation des satellites ainsi que pour la production des images.

Les images Spot sont commercialisées par la société Spot Image.

Orbite : quasi polaire, circulaire, héliosynchrone.

Altitude : 832 km

1ère génération : Spot 1, 2, 3

Résolution des images : 10 mètres en noir et blanc, 20 mètres en couleur

Lancement :

Spot‐1, lancé le 22 février 1986 (Ariane 1)

Spot‐2, lancé le 22 janvier 1990 (Ariane 40)

Spot‐3, lancé le 26 septembre 1993 (Ariane 40), fin de fonctionnement en novembre 1996)

2ème génération : Spot‐4 (conçu en synergie avec Helios 1)

Résolution des images : idem Spot 1‐3 avec des capacités infrarouges améliorées et un ensemble de quatre instruments spécialisés dans l'étude de la végétation.

Passager : PASTEL (PAssager Spot de Télécommunication Laser), un des deux terminaux optiques constitutifs du système de communication spatiale SILEX (Semi conductor Intersatellite Link EXperiment).

Lancement : Spot‐4 a été lancé le 23 mars 1998 (Ariane 40, Vol 107)

3ème génération : Spot‐5 (conçu en synergie avec Helios 2)

Résolution des images :

2.5 mètres en noir et blanc

10 mètres en couleur

Capacités d'acquisition de couples stéréoscopiques améliorés

Lancement : Spot‐5 a été lancé le 3 mai 2002 (Ariane 42P, Vol 151)

Stations de réception au sol : 17 stations sur les 5 continents.

Intérêts et utilisations des images Spot (source : Spot Image)

Les images issues de la télédétection spatiale (Spot ou autres satellites) présentent les avantages suivants : couverture mondiale, pouvoir de synthèse grâce à la dimension des surfaces couvertes, répétitivité.

Un des atouts de Spot est sa banque d'images couvrant la planète depuis plus de 20 ans avec des capteurs similaires. Cette banque permet d'étudier facilement des phénomènes évoluant dans le temps et dans l'espace (déforestation, etc.).

Quelques exemples d'utilisation :

Défense :

• utilisation des images stéréoscopiques pour la réalisation de modèles numériques de terrain,

• renseignement en temps de paix,

Page 133: photogrammétrie

HEIG‐VD, G2C 133 / 141 F. Gervaix, février 2010

• utilisation de stations de réception mobiles pour alimenter le commandement sur le théâtre d'opération.

Agriculture :

• la Communauté européenne utilise les images Spot pour le contrôle des déclarations dans le cadre de la politique agricole commune (le capteur infrarouge permet l'identification des plantes et du stade de maturation),

• évaluation des dégâts causés par des intempéries importantes (vent, grêle, etc.).

Cartographie :

• Spot 5 et son capteur panchromatique (résolution de 2.5 m) permet la réalisation de cartes au 1:50'000 (soit 20 pixels par mm)

13.9.4 Eros

EROS (Earth Resources Observation Satellite) est une série de satellites d’observation de la Terre israéliens commerciaux, développés et fabriqués par Israel Aircraft Industries (IAI), avec la partie optique fournie par El‐Op. Les satellites sont propriété et opérés par ImageSat International, une autre compagnie israélienne avec 35 employés, faisant partie des 50 de IntelSat's. A ce jour, seulement le premier satellite de la série (EROS A) a été lancé le 5 décembre 2000.

EROS A

EROS A a été lancé par le lanceur russe Start‐1 le 5 décembre 2000 depuis le cosmodrome sibérien de Sbovodni sur une orbite basse (LEO) de 480 km. Le satellite produit des images commerciales avec une résolution de 1.8 mètres. Le satellite est en orbite héliosynchrone, afin que sa cible soit toujours à la lumière du jour. Il coupe l’équateur à 09:45 heure locale.

Ces dimensions sont : hauteur 2.3m, diamètre 1.2m. Il pesait 250kg au moment du lancement. Il a été construit sur la base du satellite de reconnaissance militaire Ofeq 3, qui avait également été construit par IAI et El‐Op pour l’usage du gouvernement israélien.

Plans futurs

EROS B est prévu pour un lancement en mars 2006. Il devrait offrir une résolution spatiale de 70 cm. ImageSat avait prévu initialement de lancer un satellite similaire à EROS A tous les six mois, mais la demande pour ses images était faible ce qui a causé d’importantes pertes initiales et le retard de EROS B et suivants.

EROS C est prévu pour un lancement en 2009 et sa résolution n’est par encore décidée.

ImageSat a annoncé le plan de lancer un total de trois satellites supplémentaires plus tard, afin de couvrir l’ensemble de la planète avec une six satellites en activité simultanée.

Page 134: photogrammétrie

HEIG‐VD, G2C 134 / 141 F. Gervaix, février 2010

13.9.5 Landsat

The Landsat program is the longest running enterprise for acquisition of imagery of Earth from space. The first Landsat satellite was launched in 1972; the most recent, Landsat 7, was launched on April 15, 1999. The instruments on the Landsat satellites have acquired millions of images. The images, archived in the United States and at Landsat receiving stations around the world, are a unique resource for global change research and applications in agriculture, geology, forestry, regional planning, education and national security. Landsat 7 has a 15m to 30m resolution.

History

The program was called the Earth Resources Observation Satellites Program when it was initiated in 1966, but the name was changed to Landsat in 1975. In 1979, Presidential Directive 54 under President Jimmy Carter transferred Landsat operations from NASA to NOAA, recommended development of long term operational system with four additional satellites beyond Landsat 3, and recommended transition to private sector operation of Landsat. This occurred in 1985 when the Earth Observation Satellite Company (EOSAT), a partnership of Hughes Aircraft and RCA, was selected by NOAA to operate the Landsat system under a ten year contract. EOSAT operated Landsat 4 and 5, had exclusive rights to market Landsat data, and was to build Landsat 6 and 7.

In 1989, this transition had not been fully completed when NOAA's funding for the Landsat program ran out and NOAA directed that Landsat 4 and 5 be shut down, but an act of Congress provided emergency funding for the rest of the year. Funding ran out again in 1990 and once again Congress provided emergency funding to NOAA for six more months of operations, requesting that agencies that used Landsat data provide the funding for the other six months of the upcoming year. The same funding problem and solution was repeated in 1991. In 1992, various efforts were made to finally procure funding for follow on Landsat and continued operations, but by the end of the year EOSAT ceased processing Landsat data. Landsat 6 was finally launched on October 5, 1993, but was lost in a launch failure. Processing of Landsat 4 and 5 data was resumed by EOSAT in 1994. NASA finally launched Landsat 7 on April 15, 1999.

The value of the Landsat program was recognized by Congress in October, 1992 when it passed the Land Remote Sensing Policy Act (Public Law 102‐555) authorizing the procurement of Landsat 7 and assuring the continued availability of Landsat digital data and images, at the lowest possible cost, to traditional and new users of the data.

Landsat 1 (originally named Earth Resources Technology Satellite 1) ‐ launched July 23, 1972, terminated operations in 1978

Landsat 2 ‐ launched January 22, 1975, terminated in 1981

Landsat 3 ‐ launched March 5, 1978, terminated 1983

Landsat 4 ‐ launched July 16, 1982, terminated 1993

Landsat 5 ‐ launched March 1, 1984, still functioning

Landsat 6 ‐ launched October 5, 1993, failed to reach orbit

Landsat 7 ‐ launched April 15, 1999, still functioning

13.9.6 Envisat et ERS‐1 & 2 (ESA)

The Envisat (Environmental Satellite) satellite is an Earth‐observing satellite built by the European Space Agency. It was launched on March 1, 2002 aboard an Ariane 5 into a Sun synchronous polar orbit at a height of 790 km (±10 km). It orbits the Earth in about 101 minutes with a repeat cycle of 35 days.

Envisat carries an array of nine Earth‐observation instruments that gather information about the earth (land, water, ice, and atmosphere) using a variety of measurement principles.

Page 135: photogrammétrie

HEIG‐VD, G2C 135 / 141 F. Gervaix, février 2010

Several of the instruments are advanced versions of instruments that were flown on the earlier ERS‐1 and ERS‐2 missions and other satellites.

ASAR (Advanced Synthetic Aperture Radar) can detect changes in surface heights with sub‐millimetre precision.

MERIS (MEdium Resolution Imaging Spectrometer) produces two‐dimensional images using a 15‐band spectrometer

AATSR (Advanced Along Track Scanning Radiometer) can measure the temperature of the sea surface

RA‐2 (Radar Altimeter 2) is a dual‐frequency Nadir pointing Radar operating in the S band and Ku bands, it is used for measuring ocean topography, map/monitor sea ice and measure land heights.

MWR (Microwave Radiometer) for measuring water vapour in the atmosphere and give corrections for the Altimeter

DORIS (Doppler Orbitography and Radiopositioning Integrated by Satellite) for orbit determination to within 10 cm or less

GOMOS (Global Ozone Monitoring by Occultation of Stars) looks to stars as they descend through the Earth's atmosphere and change colour, which also tells a lot about the presence of gases such as O3 (ozone), and allows for the first time a space‐based measurement of the vertical distribution of these trace gases.

MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) is a spectrometer

SCIAMACHY (SCanning Imaging Absorption SpectroMeter for Atmospheric CHartographY) compares light coming from the sun to light reflected by the Earth, which provides information on the atmosphere through which the earth‐reflected light has passed.

Predecessor: ERS‐1 ERS‐2

European Remote‐Sensing satellite (ERS) was the European Space Agency's first Earth‐observing satellite. It was launched on July 17, 1991 into a Sun synchronous polar orbit at a height of 782–785 km.

ERS‐1 carried an array of earth‐observation instruments that gathered information about the Earth (land, water, ice and atmosphere) using a variety of measurement principles. These included:

A nadir‐pointing Radar Altimeter operating in the Ku band

A Four channel Infrared Radiometer for measuring temperatures at the sea‐surface and the top of clouds.

A Microwave Sounder

A Synthetic aperture radar

A Wind Scatterometer

To accurately determine its orbit, the satellite included the PRARE (Precision Range and Range‐Rate Equipment) and a Laser Retroreflector. The PRARE was non‐operational since launch. The Retroreflector was used for calibrating the Radar Altimeter to within 10 cm.

ERS‐1 had various mission phases using 3‐day, 35‐day and a 336‐day repeat cycle. The 336‐day mission (Geodetic Mission) allowed for accurate mapping of the Earth's bathymetry and geoid over the seas.

ERS‐1 failed on March 10, 2000, far exceeding its expected lifespan.

Its successor, ERS‐2, was launched on April 21, 1995. It is largely identical to ERS‐1, with the addition of the GOME (Global Ozone Monitoring Experiment) and absorption spectrometer. When ERS‐2 was launched, ERS‐1 shared the same orbital plane. This allowed a tandem mission, with ERS‐2 passing the same point on the ground 1 day later than ERS‐1. ERS‐1 & 2 have a repeat cycle of 35 days.

Page 136: photogrammétrie

HEIG‐VD, G2C 136 / 141 F. Gervaix, février 2010

ERS‐2 has been operating without gyroscopes since February 2001, resulting in some degradation of the data provided by the instruments. The tape drive aboard failed on June 22, 2003, leaving the instruments operating only within visibility of a ground station. Since the tape drive failure additional ground stations have been brought online to increase the data gathering abilities of the satellite. The Wind Scatterometer and GOME are the only instruments of their kind currently in orbit (until 2006 when MetOp launches).

The successor to ERS‐2 is Envisat.

13.9.7 OrbView

Source: www.orbimage.com

OrbView‐2

“THE WORLD'S FIRST DAILY COLOR IMAGERY OF THE EARTH”

The OrbView‐2 satellite, successfully launched in August 1997, provides unprecedented multispectral imagery of the Earth's land and ocean surfaces every day. By detecting subtle colour changes on the Earth's surface, OrbView‐2's imagery is valuable for monitoring plankton and sedimentation levels in the oceans and assessing the health of land‐based vegetation on a global basis.

OrbView‐2 provides Fish Finding Maps useful for locating surface dwelling fish. Its imagery is useful for estimating crop yields around the world. It provides valuable laser penetration depth imagery for naval operations. OrbView‐2 provides the world's first daily colour imagery of the Earth.

The satellite's imaging instrument has eight channels, six in the visible and two in the near infrared spectrum, with a spatial resolution of 1.1 km. It provides daily coverage of the Earth with a swath width of 2,800 km from a polar orbital path. Its imagery is continuously downlinked in real‐time and can be acquired with a standard High Resolution Picture Transmission (HRPT) ground station.

OrbView‐2 is useful for a variety of applications such as fishing, agriculture, naval operations, scientific research and environmental monitoring.OrbView‐3

OrbView‐3

ORBIMAGE's OrbView‐3 satellite is among the world's first commercial satellites to provide high‐resolution imagery from space. OrbView‐3 produces one‐meter resolution panchromatic and four‐meter resolution multispectral imagery. One‐meter imagery enables the viewing of houses, automobiles and aircraft, and makes it possible to create highly precise digital maps and three‐dimensional fly‐through scenes. Four‐meter multispectral imagery provides colour and infrared information to further characterize cities, rural areas and undeveloped land from space.

OrbView‐3 is one of the first commercial satellites to provide high‐resolution images from space. Its imaging instrument provides both one‐meter panchromatic imagery and four‐meter multispectral imagery with a swath width of 8 km.

The satellite revisits each location on Earth in less than three days with an ability to turn from side‐to‐side up to 45 degrees.

OrbView‐3 imagery can be downlinked in real‐time to ground stations located around the world or stored on‐board the spacecraft and downlinked to ORBIMAGE's master U.S. ground stations.

To access OrbView‐3 imagery, customers can either purchase imagery from our family of partners and distributors, or order individual images from ORBIMAGE or its online data store, located at www.orbimage.com.

OrbView‐3 provides imagery useful for a variety of applications such as telecommunications and utilities, oil and gas, mapping and surveying, agriculture and forestry, and national security. Its multispectral data enables early detection of crop stress. Its stereo imaging capability provides 3‐D terrain images.

Page 137: photogrammétrie

HEIG‐VD, G2C 137 / 141 F. Gervaix, février 2010

OrbView‐3 Specifications

Imaging Mode Spatial Resolution Imaging Channels Spectral Range

Panchromatic 1 meter 1 channel 450‐900 nm

Multispectral 4 meter 4 channels 450‐520 nm

520‐600 nm

625‐695 nm

760‐900 nm

• Swath Width : 8 km

• Image Area : User Defined

• Revisit Time : Less than 3 days

• Orbital Altitude : 470 km

• Nodal Crossing : 10:30 A.M.

• System Life : Minimum 5 years

OrbView‐5

ORBIMAGE will continue its tradition of innovation in mapping, monitoring and measuring the Earth’s surface with the launch of OrbView‐5, its next‐generation satellite with the highest resolution and most advanced collection capabilities of any commercial imaging satellite ever developed.

Scheduled for launch in early 2007, OrbView‐5 will offer unprecedented spatial resolution by simultaneously acquiring 0.41‐meter panchromatic and 1.64‐meter multispectral imagery. It can collect in excess of 800,000 square kilometres of imagery in a single day, downlink imagery in real‐time to international ground station customers, and can store 1.2 terabytes of data on its solid‐state recorders.

The detail and geospatial accuracy of OrbView‐5 imagery will further expand the applications for satellite imagery in every commercial and government market sector.

OrbView‐5 Specifications

Imaging Mode Spatial Resolution Imaging Channels Spectral Range

Panchromatic 0.41 meter 1 channel 450‐900 nm

Multispectral 1.64 meter 4 channels 450‐520 nm

520‐600 nm

625‐695 nm

760‐900 nm

• Swath Width : 15.2 km

• Off‐Nadir Imaging : Up to 60 degrees

• Dynamic Range : 11 bits per pixel

• Mission Life : Expected > 7 years

• Image Area : User Defined

• Revisit Time : Less than 3 days

Page 138: photogrammétrie

HEIG‐VD, G2C 138 / 141 F. Gervaix, février 2010

• Orbital Altitude : 684 km

• Nodal Crossing : 10:30 A.M.

• System Life : Minimum 5 years

13.9.8 Formosat

Début 2005, la NSPO (National Space Organization) taiwanaise a choisi de renommer les satellites Rocsat en Formosat, rappelant l’ancien nom portugais de l’île de Taiwan, Ilha Formosa ou Formose.

Formosat‐2 est sur une orbite géosynchrone et effectue un nombre entier de révolutions par jour, 14 exactement. Cette propriété lui permet d’acquérir quotidiennement un même site sous les mêmes conditions de prises de vues latérales, l’agilité du satellite autorise des prises de vues latérales et avant / arrière ave un dépointage très rapide (jusqu’à ±45°).

L’orbite de Formosat‐2 est également héliosynchrone : chaque région du globe est observée à la même heure locale solaire, 9h30, contre 10h30 pour la majorité des systèmes optiques actuels. Ce léger décalage, couplé à la revisite quotidienne, permet d’augmenter les chances de succès d’acquisition exploitables dans les zones équatoriales au‐dessus desquelles les nuages de convection se forment tout au long de la matinée.

A l’instar des satellites très haute résolution, Formosat‐2 dispose de quatre bandes : bleu, vert, rouge et proche infrarouge. Cela permet de réaliser sans traitement particulier des compostions en couleurs naturelles et fausses couleurs.

Les images ont une emprise de 24 x 24 km, une résolution de 8m en couleurs et de 2 m en noir & blanc.

Page 139: photogrammétrie

HEIG‐VD, G2C 139 / 141 F. Gervaix, février 2010

14. Bibliographie Michel Kasser & Yves Egels : « Photogrammétrie numérique », Collection ENSG ‐ IGN (2001)

Karl Kraus : « Photogrammetry: Geometry from Images and Laser Scans », de Gruyter (2007)

Albertz & Wiggenhagen : « Taschenbuch zur Photogrammetrie und Fernerkundung / Guide for Photogrammetry and Remote Sensing » (2008)

François Gervaix : « Mise à jour des orthophotos et 3D à Genève », Veille technologique IGSO, 28 janvier 2009, HEIG‐VD.

Page 140: photogrammétrie

HEIG‐VD, G2C 140 / 141 F. Gervaix, février 2010

15. Éléments numériques utiles Foot Inch

1 ft = 0.3048 m 1’’ = 0.0254 m = 25.4 mm

1 m = 3.28084 ft 1 m = 39.3701’’

3 ft = 1 yard 1 ft = 12’’

1760 yard = 1 mile 9’’ ≈ 230 mm

1 mile = 1609.34 m Objectifs analogiques:

1 nautical mile (n.m.) = 1852.28 m 88 mm = 3½’’ super‐wide

153 mm = 6’’ wide

303 mm = 12’’ normal

213 mm

Plan de vol

c = 153 mm ≈ 0.15 m

dimension d’un cliché : 23 x 23 cm = 530 cm2

rapport côté/hauteur 230 : 153 = 1.5

recouvrement longitudinal : 60%

recouvrement latéral : 30%

surface utile : 0.6 x 0.7 = 0.28 148 cm2

Échelle de prise de vue : 1:10'000

hauteur = c x 1/échelle = (1/échelle : 10) + 50% = 1500 m

= 1/échelle : 2 [ft] = 5000 ft

côté = 1.5 x hauteur = 2250 ou 2300 m ; surface ≈ 5 km2

base = (1/échelle : 10) – 10% = 900 m

= hauteur – 60%

espacement = altitude + 5% (1.5 x 0.7 = 1.05) = 1575 m

espacement [q=20%] = altitude + 20% = 2 x côté = 1800 m

surface utile = (1/échelle : 10)2 x 1.4 = 0.28 x surface = 1.4 km2

Vitesse

100 knots = 51.5 m/s = 185.2 km/h

50 m/s < 100 knots < 200 km/h

Ouverture

f : 4 f : 22 (f : 16 pour super‐wide) f : 4 5.6 8 11 16 22

Angle

1 mgon = 3.24’’ (sec‐arc) 1’’@ 2000 m = 1 cm

1 pixel ADS40 = 20.6’’ = 6.2 mgon 6∙10‐3 deg = 22’’

Page 141: photogrammétrie

HEIG‐VD, G2C 141 / 141 F. Gervaix, février 2010

16. Curriculum Vitae François Gervaix, né à Lausanne en 1970.

Ingénieur EPFL du Génie Rural, spécialisation Mensuration, 1995

7 ans avec Leica (1998‐2005) :

3 ans LH Systems à Heerbrugg ;

3 ans Leica Geosystems GIS & Mapping à Singapour ;

1 an consultant à Bangkok.

Spécialiste en capteurs aéroportés et traitement de données.

Professeur de photogrammétrie et imagerie géomatique à la HEIG‐VD depuis septembre 2005.

Membre du comité de l’IGSO (Association des Ingénieurs‐géomètres de Suisse occidentale), responsable de la Formation Continue.

Membre du comité scientifique du cours « La 3D comme outil d’expertise, de décision et de communication » donné à Genève en 2008, 2009 et 2010.

Membre de la Société suisse de photogrammétrie, analyse d’image et télédétection (SSPIT/SGPBF) http://www.sgpbf.ch/

En cas de retard ou absence:

SMS au 078 647 6736 (n’oubliez pas votre nom!)

Numéros fixes:

Labo D58: 024 557 6369

Bureau D59: 024 557 6378