Activer le mode zen
Ressource au format PDF

Interférométrie radar : principe et utilisation dans la surveillance de la déformation du sol

05/01/2026

Aurélien Augier

Lycée Camille Guérin, Poitiers

Delphine Chareyron

ENS de Lyon / DGESCO

Olivier Dequincey

ENS de Lyon / DGESCO

Résumé

Principes de l'InSAR : acquisition des données, amplitude et phase, perturbation et interprétation du signal.


L'imagerie satellitaire radar[1] est une technique d'imagerie qui utilise le domaine des micro-ondes (typiquement, longueur d'onde entre un et une vingtaine de centimètres). Par rapport à l'imagerie satellitaire optique, l'utilisation de ces longueurs d'ondes offre l'avantage d'être assez peu sensible aux nuages et permet de travailler à peu près quelles que soient les conditions météorologiques. Autre avantage, alors que l'imagerie satellitaire optique utilise la lumière du Soleil pour réaliser les images (méthode passive), l'imagerie radar est un système actif. En effet, la source d'énergie est embarquée dans le satellite, les ondes émises interagissent avec la surface du sol et reviennent vers le satellite. On peut ainsi réaliser des mesures à toute heure du jour et de la nuit.

Cet article présente les principes de l'interférométrie radar et son utilisation pour la surveillance de la déformation du sol. Les premières sections restent très qualitatives et peuvent être comprises par des étudiants en post-bac sans trop de problèmes. Les principales notions physiques sont vues en lycée, un élève de lycée en spécialité physique peut tout à fait comprendre cette méthode.

L'interférométrie radar peut être utilisée pour différentes mesures, telles que la mesure de la déformation du sol ou le calcul de modèles numériques de terrain. Ici, seule la mesure de la déformation sera abordée. Les principes d'obtention d'une image radar ainsi que les étapes calculatoires d'obtention d'un interférogramme donnant la mesure de la déformation ne seront pas abordés. L'objectif de cet article est de donner les principes de base permettant de lire et comprendre un interférogramme.

Dans cet article, les exemples géologiques présentés concernent les déformations du Piton de la Fournaise (île de La Réunion) lors de divers évènements dont l'éruption d'avril 2007.

L'InSAR et surtout son application à l'étude des failles et séismes ont été présentés dans la partie Imagerie radar et géodésie spatiale de la conférence Imagerie satellitaire et géodésie spatiale : de nouvelles données et techniques pour l'étude du cycle sismique des grandes failles actives.

1. Principe de l'interférométrie radar 

1.2 Satellites SAR (Synthetic Aperture Radar)

Un satellite capable de faire de l'interférométrie radar est un satellite dit actif : il éclaire lui-même l'objet qu'il observe en émettant une onde radar (de longueur d'onde généralement comprise entre 1 et 20 cm) et en réceptionnant le signal renvoyé par la Terre.

Dans cet article, les images utilisées proviennent des trois satellites : ENVISAT, ALOS et TerraSAR-X. Ils évoluent tous les trois le long d'une orbite polaire, et l'on parle d'image acquise en passe ascendante lorsque l'image est prise pendant que le satellite se dirige vers le pôle Nord. Une image acquise en passe descendante correspond à une image prise lorsque le satellite se dirige vers le pôle Sud.

Quelques-uns des satellites utilisés en InSAR

Figure 1.  Quelques-uns des satellites utilisés en InSAR

ENVISAT, lancé en 2002, est peut-être le plus célèbre mais n'est plus en activité depuis 2010. Le premier satellite Sentinel a été mis en orbite en 2014 et les satellites de cette série sont opérationnels en InSAR.


Les satellites radar ne sont pas équipés de lentilles comme les satellites optiques, mais d'une antenne, et sont capables de synthétiser une image à partir d'un signal enregistré en continu. Cette étape de synthèse sort du cadre de notre étude, mais c'est elle qui a donné son nom aux satellites : on parle de satellites SAR pour Synthetic Aperture Radar. On parle ainsi, pour l'interférométrie par satellite radar, de méthode InSAR (Interferometric Synthetic Aperture Radar).

Quelques paramètres du faisceau radar

Figure 2.  Quelques paramètres du faisceau radar

Par convention, les satellites SAR « visent toujours vers la droite », perpendiculairement à leur trajectoire. Certains d'entre eux sont capables de viser avec un angle de visée ajustable. Ainsi, le radar ASAR du satellite ENVISAT peut viser selon 7 angles différents : chaque mode est appelé swath. (cc-by-sa Augier)


Le temps de revisite d'ENVISAT est de 35 jours, c'est-à-dire que le satellite reviendra à une position donnée au bout de 35 jours. Pendant une révolution, ENVISAT tourne 501 fois autour de la Terre en empruntant 501 orbites différentes, appelées tracks. Sur un track donné, le satellite passe toujours au-dessus des même zones. L'antenne radar est orientable selon 7 angles différents, appelés swaths, ce qui permet des acquisitions dans des géométries variées (figure 2). Les zones couvertes par deux swaths donnés ne se chevauchent pas, et un objet ne pourra donc être observé que dans un seul swath sur un track donné. Chaque couple de swath/track correspondra à une ligne de visée, et seules les images acquises dans une même ligne de visée seront combinables entre elles.

1.2 Image d'amplitude et image de phase

Comme la lumière, une onde radar est une onde électromagnétique, caractérisée par une longueur d'onde comprise généralement entre 1 et 20 cm. Le signal réémis par la Terre pour une zone donnée est donc caractérisé par son amplitude et sa phase, que le satellite est capable de mesurer.

Les satellites SAR envoient une onde radar de longueur d'onde fixe. L'onde rétrodiffusée peut avoir une amplitude variable à cause des propriétés du sol, mais sa longueur d'onde reste identique. En revanche, les satellites SAR sont capables d'enregistrer la phase du signal rétrodiffusé, qui sera comprise entre 0 et 2π. Cette phase dépend de deux paramètres principaux :

  • la phase pixellaire, qui dépend des propriétés du sol, de la végétation et des objets présents…, et qui peut être différente pour deux pixels contigus,
  • la phase de trajet, qui ne dépend que de la distance entre le sol et le satellite.

La figure 4 présente, à gauche, une image de l'amplitude, et à droite une image de phase du signal reçu.

L'amplitude du signal reçu dépend des propriétés du sol (le signal est plus ou moins réfléchi, transmis ou diffusé) et correspond à la quantité de lumière renvoyée vers le satellite. Par exemple, une zone lisse aura tendance à réfléchir le signal comme un miroir et, vu l'obliquité du faisceau, suivant les lois de la réflexion, ce signal ne sera pas renvoyé vers le radar. La zone lisse apparaitra sombre sur l'image d'amplitude. À l'opposé, les surfaces rugueuses et les pentes dirigées vers le satellites apparaitront lumineuses.

La phase du signal reçu dépend de la phase pixellaire (due à la nature du sol et des objets qui y sont présents), et de la phase de trajet, qui ne dépend que de la distance entre le satellite et le sol. Formées de points dont la couleur (du blanc au noir – selon une nuance de gris – ou selon une échelle de couleur arbitraire) correspond à une valeur de phase comprise entre 0 et 2π, les images de phase ressemblent à du bruit, et ne sont pas exploitables en tant que telles.

Image d'amplitude et de phase (TerraSAR)

Figure 4.  Image d'amplitude et de phase (TerraSAR)

Exemple d'image d'amplitude et de phase au niveau du Piton de la Fournaise, prises par le satellite TerraSAR.


2. Application à la mesure de la déformation du sol

L'interférométrie SAR (InSAR) permet d'exploiter l'information de distance contenue dans l'image de phase. L'acquisition d'une image de phase est faite à deux dates différentes.

  • Si la nature du sol reste constante, la phase pixellaire restera aussi constante et sera la même sur les deux images, toutes choses égales par ailleurs.
  • Si le satellite occupe exactement la même position lors des deux acquisitions, et que le sol n'a pas bougé, alors la distance entre le satellite et chaque point de la Terre est exactement la même, la phase de trajet des deux images sera la même et les deux images de phase seront strictement identiques.
  • En revanche, si le sol a bougé entre les deux acquisitions, les valeurs de phase de trajet pourront être différentes, et ne dépendront que de la quantité de déplacement.

En faisant la différence entre les deux valeurs de phase, on a donc accès à la quantité de déplacement d'un pixel dans la direction du satellite.

Principes de l'InSAR

Figure 5.  Principes de l'InSAR

Principes de l'interférométrie radar : une image de phase est acquise à deux moments différents. Si la phase pixellaire est restée constante entre les deux images et que le satellite est dans la même position entre les deux prises de vue (ou qu'une correction de position est faite), la différence de phase de trajet entre les deux acquisitions ne dépendra que du déplacement du sol dans la direction du satellite.


2.1 L'interférogramme

Un interférogramme correspond à la différence entre deux images de phase, il est donc assimilable à une carte des déplacements du sol dans la direction du satellite.

  • Si la différence de trajet aller-retour est inférieure à la longueur d'onde λ, la différence entre les deux valeurs de phase sera comprise entre 0 et 2π.
  • Si la différence de trajet aller-retour est strictement égale à la longueur d'onde λ, alors la valeur de phase enregistrée sera la même pour les deux images, et leur différence sera égale à 0 (modulo 2π).
  • Enfin, si la différence de trajet aller-retour est supérieure à la longueur d'onde λ, la seconde valeur de phase étant elle même comprise entre 0 et 2π, la différence des valeurs de phase sera encore comprise entre 0 et 2π comme dans le cas d'un déplacement inférieur à la longueur d'onde.
Mise en évidence du déphasage entre entre deux images prises du même lieu à deux instants différents

Figure 6.  Mise en évidence du déphasage entre entre deux images prises du même lieu à deux instants différents

La flèche annotée LOS (pour Line Of Sight) correspond à la ligne de visée du satellite.


Le déphasage de 0 à 2π est cartographié à l'aide d'une échelle de couleurs allant pour des valeurs croissantes du jaune au vert, au bleu clair, au bleu (opposition de phase), au violet, à l'orange avant de revenir au jaune. On appelle interfrange (et parfois abusivement “frange”) la distance entre deux bandes consécutives de même couleur correspondant à un déphasage allant de 0 à 2π (d'une bande jaune à la suivante).

Entre deux bandes consécutives de même couleur (donc de même phase), la différence de trajet aller-retour satellite-sol correspond à une différence égale à la longueur d'onde du signal et correspond donc à une différence de distance satellite-sol égale à une demi-longueur d'onde (1/2 aller + 1/2 retour = 1).

Pourquoi voit-on des franges sur un interférogramme : si le déplacement du sol dans l'axe de visée du satellite (désigné par LOS pour Line Of Sight, ligne de visée) correspond à 0 ou à un multiple de la demi-longueur d'onde de l'onde radar, alors la valeur de la différence des phases est égale à 0. Une frange peut donc être vue comme une ligne de niveau de déplacement.

Pour une brève présentation de l'interférométrie radar comme exemple de figure d'interférence, se reporter à la vidéo de La physique animée : une série de vidéos de physique - Superposition de phénomènes ondulatoires : les moirés (de 1min07s à 2min23s).

2.2 Déroulement d'un interférogramme (unwrapping)

Le déroulement permet, en comptant le nombre de franges, de convertir les déplacements en phase en déplacements en mètres dans la ligne de visée du satellite.

La figure 7 montre un exemple de déroulement à partir d'un interférogramme synthétique.

Les déplacements ne sont connus que modulo 2π et il est possible de les convertir en déplacements absolus le long de la ligne de visée en comptant le nombre de cycles de phases (franges sur les interférogrammes). Pour cette étape, on considère que la valeur ambiguë en radians de la phase \( \phi_{ij}\) du pixel de la \(i^e\) colonne et de la \(j^e\) rangée, connue à 2π près, peut être convertie en valeur déroulée \(u_{ij}\) en mètres selon :

$$ u_{ij} = \frac{\lambda}{4 \pi} \big(\phi_{ij} + n_{ij} \times 2\pi\big) +l $$

où \( \lambda \) est la longueur d'onde du signal radar, \(n_{ij} \) est un entier et \(l\) est une constante. Le déroulement consiste à trouver la valeur de \(n_{ij} \) pour chaque pixel de l'interférogramme. Cette valeur est caractéristique de chaque frange, c'est à dire que tous les pixels appartenant à une même frange seront caractérisés par un \(n_{ij} \) identique. La constante \(l\) peut être déterminée soit en considérant que les pixels éloignés de la zone de déformation ne bougent pas ( \(u_{ij} \) = 0) soit directement durant les procédures de modélisation.

Principes du déroulement à partir d'un interférogramme synthétique

Figure 7.  Principes du déroulement à partir d'un interférogramme synthétique

a – Interférogramme initial enroulé et interférogramme déroulé. Le trait AB représente un trait de coupe dans les valeurs de déplacement. b – Principes du déroulement : sur l'interférogramme initial, on ajoute à tous les pixels d'une même frange la valeur \( n_{ij} \times 2π\) où \(n_{ij}\) est un entier, de sorte que les déplacements soient le plus continus possible. Les déplacements sont ensuite convertis en mètres


2.3 Lecture d'un interférogramme : quantité, direction et sens des déplacements du sol

Mesure des déplacements

La figure 8 met en évidence le suivi du Piton de la Fournaise en avril 2007. Il a été survolé par deux satellites : ASAR (le radar d'ENVISAT) utilisant une longueur d'onde de 5,66 cm et PALSAR (ALOS) utilisant une longueur d'onde de 23,6 cm. La forme globale des motifs de déplacement est la même, en revanche on observe bien que le nombre de franges est environ 5 fois plus important pour ENVISAT-ASAR que pour ALOS-PALSAR.

Sur l'image prise par ALOS-PALSAR, dans le flanc Est, on peut compter 6 franges, ce qui permet d'estimer 71 cm de déplacement.

Effet de la longueur d'onde du radar du satellite – Piton de la Fournaise, avril 2007

Figure 8.  Effet de la longueur d'onde du radar du satellite – Piton de la Fournaise, avril 2007

L'éruption d'avril 2007 vue par ALOS-PALSAR (à gauche) et ENVISAT-ASAR (à droite). Les lignes de visée (LOS) pour chaque image sont très similaires. La forme globale des motifs de déplacement est la même, en revanche le nombre de franges est environ 5 fois plus important à droite qu'à gauche : la longueur d'onde du radar PALSAR est en effet 5 fois plus grande que celle d'ASAR (23,6 et 5,6 cm, respectivement).


Direction des déplacements

N'oublions pas qu'un interférogramme correspond bien à une carte de déplacement dans l'axe de visée du satellite. Une même déformation visualisée dans deux lignes de visées différentes par le même satellite donnera donc deux interférogrammes pouvant avoir des aspects différents. Contrairement au GPS qui enregistre la déformation dans les 3 composantes géographiques (EW/ NS/verticale), un interférogramme n'enregistre que le projeté des déplacements dans l'axe de visée du satellite.

Effet de la ligne de visée, principes

Figure 9.  Effet de la ligne de visée, principes

À gauche, une même zone peut être vue selon différentes lignes de visée (ou LOS), en fonction de l'orientation de l'antenne radar et du sens de passage du satellite (passe ascendante ou descendante).

À droite, deux pixels sur un terrain en subsidence (par exemple, un volcan qui se dégonfle) n'ont pas forcément la même direction de déplacement. Le satellite enregistre le projeté du vecteur de déformation sur l'axe de visée du satellite. En fonction de cette ligne de visée, un même déplacement ne sera pas enregistré de la même manière. Un déplacement perpendiculaire à l'axe de visée du satellite ne sera pas enregistrable.


Un même événement enregistré dans des lignes de visée différentes pourra donc amener à des interférogrammes d'aspect différent, comme on le voit sur la figure 10, présentant deux interférogrammes du Piton de la Fournaise mais avec deux angles de visée différents.

Effet de la ligne de visée sur des données réelles

Figure 10.  Effet de la ligne de visée sur des données réelles

Les déformations accompagnant l'éruption d'avril 2007 du Piton de la Fournaise vues selon deux lignes de visée différentes. À gauche, en passe descendante swath 6, et à droite, en passe ascendante swath 5. Les motifs de déformation, bien que localisés globalement aux mêmes endroits, ont des aspects différents. (cc-by-sa Augier/OPGC)


Sens des déplacements

Pour déterminer le sens des déplacements, on part d'un endroit qui n'a pas bougé, puis on suit l'ordre des couleurs vers un endroit qui a beaucoup bougé (flèches blanches). Sur la figure 11, pour le motif le plus à l'Ouest, on part du vert, puis on passe au rose, puis au jaune, puis au vert, puis à nouveau au rose… : la valeur de la phase augmente, la distance Terre-satellite a donc augmenté, et comme le satellite est sur une orbite fixe, c'est le sol qui s'est éloigné du satellite. On observe l'inverse pour les lobes d'orientation Nord/Sud à l'Est du cône central (flèche du milieu).

Interférogramme enroulé et déroulé

Figure 11.  Interférogramme enroulé et déroulé

Le même interférogramme couvrant l'éruption d'avril 2007 enroulé et déroulé. Les lobes d'orientation Nord/Sud à l'Est du cône central correspondent à un rapprochement vers le satellite alors que les signaux à l'Ouest du cône et dans le flanc Est du volcan correspondent à un éloignement du sol par rapport au satellite. Dans ces différents motifs colorés, les franges ne “tournent” pas dans le même sens : jaune-rose-bleu pour le premier motif (les lobes à l'Est du cône central), jaune-bleu-rose pour le deuxième (flanc Ouest) et le troisième (flanc Est).


3. Altérations du signal dans un but d'observation de la déformation

Le calcul de la différence des phases entre l'image maitresse (celle de la première prise de vue) et esclave (celle de la seconde prise de vue) de sorte à en déduire la déformation peut être entaché de certaines erreurs. Ces erreurs sont de plusieurs ordres et peuvent affecter soit la valeur de la phase pixellaire, soit la valeur de la phase de trajet (figure 12) :

  • Une variation de la nature du sol impacte la phase pixellaire. Si la nature du sol change, alors la phase pixellaire change, la valeur de phase enregistrée dépendra des changements des propriétés du sol en plus des variations de distance entre sol et satellite.
  • Une variation de la position du satellite lors de la seconde acquisition modifie la phase de trajet. La distance parcourue n'est donc plus la même entre les deux acquisitions. C'est ce type d'artéfact qui est recherché pour calculer des modèles numériques de terrain, plutôt que mesurer la déformation.
  • Une variation des conditions atmosphériques peut perturber la valeur de la phase de trajet.
Sources d'altération de la phase mesurée

Figure 12.  Sources d'altération de la phase mesurée

Lors de la première acquisition, le satellite enregistre la valeur de la phase du signal rétrodiffusé. Cette valeur enregistrée dépend de la phase pixellaire et de la distance parcourue par le signal. La seconde acquisition peut être perturbée par différents processus.


3.1 Variations de la phase pixellaire et cohérence

La cohérence est équivalente à un calcul de variance sur l'interférogramme calculé : plus la différence des phases est similaire pour des pixels contigus, plus l'interférogramme est dit cohérent. Une forte cohérence indique que la nature du sol a peu changé entre les deux acquisitions, une faible cohérence témoigne d'un changement de la nature du sol. Sur la figure 13, les pertes de cohérence sont dues à différents processus :

  • Une variation de la végétation. Visible sur toute la partie Est, très végétalisée, la végétation change de disposition (croissance, variations saisonnières...), ce qui modifie la phase pixellaire entre les deux acquisitions, et donne l'impression d'un signal bruité dans ces zones. L'intensité de la perte de cohérence est liée à la longueur d'onde utilisée (très sensible pour des longueurs d'ondes proches de la taille des objets variables : ENVISAT est sensible aux variations saisonnières, ALOS l'est moins, cf. figure 8). Ici les zones très cohérentes correspondent à des zones couvertes par des coulées de lave antérieures à la première prise de vue mais non encore végétalisées, donc montrant une forte cohérence du fait de l'absence de variabilité végétale.
  • Des coulées de lave. La zone notée 1 est une coulée de lave survenue entre la première et la seconde acquisition. La nature du sol a complètement changé, la phase pixellaire n'est plus du tout la même entre les deux images.
  • Une variation de la nature du sol. L'encart noté 2 correspond à un cône de scorie très visité par les promeneurs (nommé Formica Leo), leur passage répétitif modifie la répartition des scories au sol, ce qui perturbe la phase pixellaire.
Cohérence et variations de la phase pixellaire

Figure 13.  Cohérence et variations de la phase pixellaire

a : Carte de cohérence d'un interférogramme couvrant la période du 01/09 au 26/10/2010 ; b : Mozaïque de photos aériennes.


3.2 Variations de la position du satellite

Toute variation de la position du satellite entre les deux acquisitions s'accompagne d'une modification de la phase de trajet. Ce principe peut être utile pour mesurer l'altitude d'une zone (campagnes de mesures topographiques, par exemple) mais constitue un signal parasite dans la mesure de la déformation.

Le calcul d'un interférogramme de mesure de déformation nécessite de connaître la différence des positions d'acquisition entre deux dates de sorte à simuler les franges liées à cette différence de position et à les retrancher de l'interférogramme de départ. Plus le modèle numérique de terrain utilisé sera proche de la topographie réelle, meilleures seront les corrections.

Modèle numérique de terrain et correction des biais induits par les variations de la position du satellite

Figure 14.  Modèle numérique de terrain et correction des biais induits par les variations de la position du satellite

a : Interférogramme calculé avec un modèle numérique de terrain ancien, b : le même interférogramme calculé avec un modèle numérique de terrain récent, c : différence entre les deux modèles.

Sur l'interférogramme de gauche, beaucoup de petites franges parasites sont visibles mais ne le sont plus sur l'interférogramme de droite. Ces franges parasites correspondent à des résidus topographiques non corrigés, liés à la l'accumulation de coulées de lave postérieures au relevé du premier modèle numérique de terrain. Ces résidus sont d'autant plus importants que la coulée est épaisse.


3.3 Effets atmosphériques

Les variations des conditions atmosphériques entre deux acquisitions sont source de deux types de signaux parasites : les signaux corrélés à la topographie (à l'altitude du sol) et ceux qui ne le sont pas. En effet, l'épaisseur de la couche atmosphérique traversée par les ondes radar est d'autant plus faible que l'altitude du sol est élevée.

La figure 15 présente deux interférogrammes couvrant chacun une période différente de 35 jours et n'ayant pas subi de déformation du sol. On observe, à gauche, des perturbations non corrélées à la topographie : les franges sont dues, par exemple, à des variations de densité de l'atmosphère (présence de nuages plus ou moins chargés en eau). À droite, les perturbations sont corrélées à la topographie : les franges suivent les lignes de niveau. Ce type d'artéfact est visible lorsque l'atmosphère est stratifiée avec peu de turbulences.

Deux types de perturbations atmosphériques, le sol n'a pas bougé

Les signaux corrélés à la topographie peuvent parfois être corrigés, alors que ceux liés à une atmosphère turbulente sont plus difficiles à corriger et nécessitent d'avoir des images météo rarement disponibles à résolution suffisante et au moment adéquat.

Le graphique de la figure 16 (en haut à droite) correspond à la corrélation entre le déplacement mesuré et la topographie. Cette relation linéaire permet de construire un modèle d'atmosphère (en bas à gauche) qui sera retranché de l'image de départ (en haut à gauche). Sur l'image corrigée (en bas à droite), on observe la présence de petites franges qui correspondent à des résidus topographiques (non corrigés du fait de la mise en place de coulées de laves postérieurement au relevé du modèle numérique de terrain utilisé, cf. figure 14).

Exemple de correction d'atmosphère corrélée à la topographie

4.Synthèse et perspectives

4.1 Fiche de synthèse

  1. Le jour 1, le satellite enregistre pour chaque pixel, la valeur de la phase (entre 0 et 2π ) du signal rétrodiffusé.
  2. Le jour 35, le satellite revient exactement à la même position et enregistre de nouveau une image de phase. Si le sol a bougé entre les deux acquisitions, la valeur de la phase pour chaque pixel ne sera pas la même.
  3. Pour chaque pixel, on calcule le déphasage entre les deux images (différence entre les deux valeurs de phase). Pour les zones n'ayant pas bougé, ou ayant bougé d'un multiple de la longueur d'onde, la valeur sera de 0, ce qui fait apparaître des franges sur l'interférogramme.

Pour déterminer le sens des déplacements : on part d'un endroit qui n'a pas bougé, puis on suit l'ordre des couleurs vers un endroit qui a beaucoup bougé (flèche blanche), finalement, l'ordre de passage des couleurs donne alors le sens du mouvement : une phase qui augmente (respectivement diminue) correspond à un éloignement (respectivement rapprochement) par rapport au satellite dans la direction de la ligne de visée.

Dans la figure 17, on part du vert, puis on passe au rose, puis au jaune, puis au vert, puis au rose.... : la valeur de la phase augmente, la distance sol-satellite a donc augmenté, et comme le satellite est fixe, c'est le sol qui s'est éloigné. Il s'agit dans cet exemple d'un signal compatible avec une subsidence (affaissement de la surface de la croûte terrestre).

Principes de l'interférométrie radar (InSAR)

4.2 Que fait-on des données d'interférométrie radar ?

Les interférogrammes permettent d'obtenir des cartes de la déformation de la surface du sol. Leur utilisation la plus commune est la recherche des sources à l'origine de cette déformation. Dans le cas d'un volcan, une source de déformation pourra, par exemple, être le remplissage / la vidange d'un réservoir magmatique dont on ne connaît ni la taille ni la profondeur. Généralement, ces sources sont cherchées par “essai/erreur” : on teste plusieurs géométries différentes, et on garde celle(s) permettant de reproduire au mieux la déformation. On dit qu'on « inverse » le problème. En effet, on sait calculer les déplacements engendrés par une source connue, mais il est difficile de trouver la source connaissant les déplacements. Les inversions permettent de quantifier les paramètres de la source (quantité de glissement sur une faille, variation de volume d'une chambre magmatique …).

Les modèles utilisés se basent sur des aprioris, qu'il est nécessaire de confronter à d'autres données (terrain, télédétection…). La figure 18, ci-dessous, montre le résultat d'une inversion sur des données acquises suite à l'effondrement du cratère Dolomieu (Piton de la Fournaise) lors de l'éruption d'avril 2007. Les résultats montrent une position de la source beaucoup trop superficielle pour correspondre à une chambre magmatique. Des données complémentaires de mesures thermiques, des observations de terrain mettant en évidence de nombreuses fumerolles permettent d'interpréter cette source comme un système hydrothermal en cours de drainage suite à l'effondrement.

Exemple d'utilisation des données InSAR : l'inversion

Figure 18.  Exemple d'utilisation des données InSAR : l'inversion

On dispose de 6 interférogrammes dans des géométries d'acquisition différentes, couvrant les déplacements post-éruptifs du cône central du Piton de la Fournaise après l'éruption d'avril 2007. Les résultats du meilleur modèle sont reprojetés dans la géométrie de chaque acquisition. Pour juger de la qualité de l'inversion, on présente souvent une image de résidus, c'est-à-dire la différence entre les données et le modèle. Moins il y en a, meilleur est le modèle. Ici, deux sources ont été prises en compte : une source lenticulaire et une fracture cylindrique. La source lenticulaire est trouvée à haute altitude, ce qui exclut que ces déplacements soient dus à une chambre magmatique. Ils sont interprétés comme un système hydrothermal « percé ». Les courbes de droite montrent les incertitudes des paramètres inversés.


L'interférométrie radar sert à mesurer des déplacements. Dans le domaine géologique, citons sous forme d'un inventaire non-exhaustif : les déplacements dus aux phénomènes volcaniques (comme montrés dans cet article), les déplacements tectoniques sismiques ou asismiques (cf. Le séisme du 11 novembre 2019, Le Teil (Ardèche)), les variations d'épaisseur des glaciers, les glissements de terrains, des subsidences liées à des pompages excessifs de nappes phréatiques, etc.

Bibliographie

Jean-Luc Froger, Vincent Famin, Valérie Cayol, Aurélien Augier, Laurent Michon, Jean-François Lénat, 2015. Time-dependent displacements during and after the April 2007 eruption of Piton de la Fournaise, revealed by interferometric data, Journal of Volcanology and Geothermal Research, 296, 55-68 (pdf sur HAL).

Site du Service OI2 (InSAR Observatory of Indian Ocean), Observatoire de Physique du Globe de Clermont-Ferrand (OPGC).

Les pages “InSAR” du site www.kunos.fr



[1] radar ou RADAR : RAdio Detecting And Ranging, détection et télémétrie par ondes radio.

Pour citer cet article :

Interférométrie radar : principe et utilisation dans la surveillance de la déformation du sol, Aurélien Augier, janvier 2026. CultureSciences Physique - ISSN 2554-876X, https://culturesciencesphysique.ens-lyon.fr/ressource/interferometrie-radar.xml

Ressource au format PDF