DJARFOUR Noureddine .pdf



Nom original: DJARFOUR-Noureddine.pdf

Ce document au format PDF 1.5 a été généré par PScript5.dll Version 5.2.2 / Acrobat Distiller 6.0 (Windows), et a été envoyé sur fichier-pdf.fr le 16/11/2011 à 00:01, depuis l'adresse IP 41.250.x.x. La présente page de téléchargement du fichier a été vue 5236 fois.
Taille du document: 1.3 Mo (132 pages).
Confidentialité: fichier public


Aperçu du document


REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L'ENSEIGNEMENT SUPERIEUR ET DE
LA RECHERCHE SCIENTIFIQUE
UNIVERSITE M’HAMED BOUGUERRA
BOUMERDES

FACULTE DES HYDROCARBURES ET DE LA CHIMIE
DEPARTEMENT GEOPHYSIQUE
LABOratoire de PHYsique de la Terre (LABOPHYT )

THEM E
INTERPRETATION GEOPHYSIQUE INTEGREE
APPLICATION DES TECHNIQUES D’INVERSION GENERALISEE, DE
TOMOGRAPHIE SISMIQUE ET DES RESEAUX DE NEURONES
ARTIFICIELS A L’ESTIMATION DES PARAMETRES ACOUSTIQUES

Mémoire présenté pour l’obtention du diplôme de Magister en Géophysique
Présenté Par : Noureddine DJARFOUR
Sous la direction de Monsieur : Pr. Kamel BADDARI
Devant le jury composé de :
Professeur (FHC/UB)

Président

K. BADDARI

Professeur (FHC/UB)

Rapporteur

F. LAAOUAD

Maître de conférences (FHC/UB)

Examinateur

A. KHELLAF

Docteur (IAP/Sonatrach)

Examinateur

M. BENCHIKH

Docteur (IAP/Sonatrach)

Examinateur

MM. M. DJEDDI

Soutenu publiquement le :

04 – 11 – 2001
Boumerdès 2001

Table de Matières

Résumé

Résumé en arabe
Résumé en anglais
0

Introduction générale

01

Chapitre I Concepts généraux
I-1
I-2
I-3
I-3-1
I-3-2
I-3-3
I-3-4
I-3-4
I-4
I-5
I-6
I-7

Position du problème
Aperçu historique sur l’interprétation sismique
Origines des informations physico-geologiques
La sismique de surface
La sismique de puits
La sismique entre puits
La diagraphie acoustique
Les données géologiques
Enchaînement d’étude
Acquisition des données stratigraphique
Résolution et détection
Déconvolution stratigraphique
Conclusion

03
06
08
08
08
09
10
10
11
12
13
16
16

Chapitre II Le problème direct
II-1
II-2
II-3
II-4
II-5
II-6
II-7
II-8
II-9
II-10
II-11
II-12

Démarche générale pour l’étude du système
Paramétrisation du système
Problème direct
Problème inverse
Modélisation directe
Modèle représentation imparfaite de la réalité
Modélisation mathématique et physique
Modélisation qualitative et quantitative
Echelle de la modélisation
Etablissement du modèle mathématique
Objectifs de la modélisation directe
Méthodes de la modélisation directe
A)- Modélisation à base d’équation d’onde
B)- La technique de tracé de rayons
Conclusion

18
18
19
20
21
21
21
22
22
23
24
28
28
28
28

Chapitre III Le problème inverse
III-1
III-1-1
III-1-2
III-1-3
III-1-4
III-1-5
III-1-6
III-1-7

III-1-8
III-2

Problème inverse
Définition
Aperçu historique sur la méthode
Description du processus d‘inversion
Formulation mathématique du problème
Problème direct
Problème inverse
Les données du problème inverse
Information déduite de la modélisation
Information déduite des données de mesures
Information a priori
Approche probabiliste de l‘information a priori
Test d’arrêt

30
30
30
31
33
34
36
37
37
37
37
37
43

III-3
III-3-1
III-3-2

Démarche et application
Intégration de la trace sismique
Application de l’inversion sur un prospect sud-ouest algérien
Conclusion
Liste des figures du chapitre III

44
44
45
46
48

Chapitre IV La tomographie sismique
IV-1
IV-2
IV-3
IV-4
IV-5
IV-6

IV-7
IV-8

IV-9

IV-10

Introduction
Historique de la technique
Principe de la tomographie
Introduction à la transformée du Radon
Principe de base des méthodes tomographiques
Différents types des méthodes tomographiques
a)- Méthodes analytiques
1)- Algorithme de coupe – projection
2)- Algorithme par rétroprojection filtrée
b)- Méthodes algébriques
Tomographie par la méthode de rétroprojection
Reconstruction par la méthode ART
a)- Principe de la méthode
b)- Description sommaire de l’algorithme
c)- Caractéristiques de l’algorithme
Tomographie par la méthode SIRT
a)- Principe de la méthode
b)- Description de l’algorithme
c)- Caractéristiques de la méthode SIRT
Méthode d’inversion matricielle
Résultats numériques de simulations
Conclusion
Liste des figures du chapitre IV

52
53
54
55
56
56
56
57
58
59
62
63
63
64
65
65
65
65
65
66
70
71
72

Chapitre V les réseaux de neurones
V-1
V-2
V-3
V-4
V-5
V-6
V-7
V-8
V-9
V-10
V-11
V-11-1
V-11-2
V-11-3
V-11-4
V-11-5
V-11-6
V-11-7

Introduction
Historique de la technique
Neurone biologique
Neurone formel
Conduction d’un influx nerveux
Transmission chimique de l’influx : les synapses
Fonctions d’activation
Réseau de neurones
Propriétés émergentes du RNA
L’apprentissage
L’algorithme de rétropropagation
Expériences synthétiques
Première phase
Deuxième phase
Troisième phase
Quatrième phase
Cinquième phase
Sixième phase
Discussion
Conclusion
Liste des figures du chapitre V
Conclusion générale
Annexe A
Annexe B
Annexe C
Références bibliographiques

80
80
81
82
83
83
84
85
86
87
88
90
90
91
93
94
95
95
96
97
98
118
120
127
130
132

INTRODUCTION GENERALE

INTRODUCTION GENERALE
En dépit des innovations grandissantes et spectaculaires des techniques de recherches, la
géophysique, dans le but d’élargir son rayon d’investigation, ressent actuellement le fort besoin
d’intégrer de la manière la plus efficace, des nouveaux concepts regroupés sous le terme
«interprétation géophysique intégrée». L’objectif principal, est d’introduire un nouveau
mécanisme assez flexible permettant une interprétation plus «souple», capable de s’adapter à des
variations des données sismiques (de surface, de puits, et celle entre puits).
Depuis quelques années, la technique d’inversion prend dans certains domaines particuliers
(sismique de surface, et celle de puits), une orientation particulièrement plus prometteuse en sens
que doté d’outils supplémentaires inspirés de récents développements en informatique et en
physique (théorie de signal et de système, technique d’optimisation, etc.). Elle ouvre des
perspectives de prospection à la fois plus large et plus précise, pour la détection des pièges
stratigraphiques qui sont reconnaissables par une variation latérale de faciès.
C’est dans ce contexte particulier que nous projetons cette étude, par l’illustration et le
développement des différentes méthodes d’inversion en vue de la résolution de problème inverse
dans l’interprétation des données sismiques, et l’élaboration d’une approche directe de la
lithologie à l’aide des paramètres acoustiques à savoir la vitesse, la densité et l’impédance
acoustique. Trois approches principales ont été considérées, l’inversion généralisée, la
tomographie et les réseaux de neurones artificiels.
L’inversion linéaire semble être une approche simple, économique et attractive. Elle a été
appliquée à des données réelles par Ikelle et al 1988, Beydoun et Mendes 1988. L’inconvénient
de cette approche provient de la difficulté de trouver un milieu de référence suffisamment proche
du milieu réel pour justifier la linéarisation.
Toutefois, le résultat de l’inversion n’est pas exact si l’on est en présence des fortes
anomalies de vitesse et si les données ont un faible rapport signal/bruit. Pour surmonter cette
difficulté, on utilise la technique tomographique, qui est une technique très prometteuse pour la
détermination du modèle de vitesse à partir du temps des premières arrivées. L'utilisation de cette
technique nous permet d'obtenir la répartition des vitesses, par une méthode itérative basée sur un
processus des moindres carrées.
Finalement, comme apport essentiel de ce mémoire, nous considérons l’application des
réseaux de neurones artificiels (RNA), cette technique émergente démontre de plus en plus son
applicabilité dans différents domaines de la science et de l’engineering. Notre recours à cette
technique n’est plus un pur acte de fois ; mais il est motivé par le fait que les RNA présentent
l’avantage d’aborder l’étude des systèmes à partir d’une base de connaissances disponibles a
priori regroupant une interprétation perceptuelle, une abstraction et un apprentissage. A l’instar
de leur valeur scientifique chez les neuroscientifiques, les modèles RNA qui inspirent ce
domaine de recherche ont été employés dans plusieurs domaines à savoir la reconnaissance de
parole et des formes, le diagnostic et la conception des machines tournantes. Lorsque l’on
examine les possibilités presque infinies d’application des RNA dans la résolution des problèmes
géophysiques, il semble très profitable d’extraire, dans un premier temps, des «primitives
d’apprentissage et d’adaptation ». L’emploi de l’RNA pour la résolution des problèmes
d’interprétation en géophysique doit son efficacité au moins partiellement, dans les difficultés
rencontrées par la théorie traditionnelle de système, face à des phénomènes complexes, incertains
ou variants dans le temps. Ces difficultés résident principalement dans le fait que la théorie de
système requiert une connaissance suffisamment précise et complète.
1

INTRODUCTION GENERALE

Dans le souci d’analyser et d’apprécier en conséquence les différentes approches citées cidessus, nos objectifs sont:
• La recherche d’un formalisme qui assure l’existence, l’unicité et la stabilité de la
solution de problème inverse, par l’intégration de l’information a priori.
• La réalisation de la convergence entre l’interprétation géologique et celle sismique
pour aboutir à une approche interprétative physico-géologique cohérente.
• L’obtention d’une méthodologie d’incorporation de la diversité des informations
géophysiques (sismique de surface, sismique entre puits et PSV, PSO, diagraphie)
afin de produire un modèle de réservoir le plus détaillé que possible.
Le mémoire est organisé de la façon suivante :
Dans le premier chapitre, nous présentons l’origine de l’interprétation géophysique intégrée
ainsi que les différents concepts relatifs à cette technique, un aperçu général sur l’origine de
l’information qui constitue la matière primaire de l’interprétation, la diversité des techniques
d’exploration et l’apport de chaque technique, ainsi que les points essentiels dans l’acquisition et
la séquence de traitement des données afin de modifier le cadre du travail en accord avec les
spécifications, la précision et la complexité de l’objectif à atteindre par l’interprétation.
Dans le deuxième chapitre, nous présentons le cadre général de l’aspect théorique de l’étude
et la démarche proposée pour l’étude d’un système physique, des brefs aperçus sur le problème
direct sont donnés.
La présentation détaillée de l’inversion généralisée, c’est l’objet de troisième chapitre, dont
lequel nous présenterons la structure algorithmique de l’inversion, et les stratégies adoptées pour
la stabilisation de la solution du problème inverse, par l’intégration de l’information a priori cette
dernière prenant plusieurs formes qui sont essentiellement des informations déduites des données
de puits.
Dans le quatrième chapitre, nous présentons l’approche tomographique, qui permet l’accès au
modèle géologique sous forme d’image, A cet effet, nous présentons le principe de base de cette
technique, ainsi que les algorithmes de reconstruction les plus utilisés.
Le cinquième et dernier chapitre sera consacré à la présentation et l‘application des RNA,
dans lequel, nous comprenant le principe et les possibilités offertes pour l’interprétation des
données géophysiques.
Ce travail sera terminé par une conclusion générale.

2

CHAPITRE I

NOTIONS GENERALES

I-1 POSITION DU PROBLEME
L’interprétation par définition, est l’action d’explication, de donner une signification claire à
une chose obscure et ambiguë. La géologie est bien un domaine donnant matière à
l’interprétation des données géophysiques.
A l’acquisition et au traitement des données, succède la phase d’interprétation. On pointe
d’abord les sections sismiques. Il s’agit de déterminer à travers une coupe sismique les lignes qui
correspondent à des limites de faciès Le résultat est une image simplifiée du sous-sol, le plus
souvent incomplète et imprécise dans la mesure où une image sismique est souvent bruitée et
entachée de zones ambiguës. En particulier des structures géologiques complexes produisent
fréquemment des portions illisibles dans une image. Cette image est appelée pointé de coupe
sismique.
L’interprétation géologique est la consécration de toute activité de prospection, elle est la
capacité à raisonner dans un univers incomplet, à rechercher et reconnaître les informations
pertinentes, pour ensuite les comparer à un ensemble de connaissances et de méthodes non
exprimées d’une façon formelle. L’art du géologue-géophysicien est la capacité de savoir lire et
décoder un enregistrement sismique. Elle est d’abord basée sur une procédure visuelle spécifique
de l’image qui constitue une coupe géologique. Cette perception est basée sur une connaissance
et une compréhension de l’histoire géologique [Hamdurger, J 1990]. Elle est constituée d’un
ensemble de caractéristiques des images qui portent une signification historique, c’est-à-dire qui
témoignent de l’occurrence d’événements géologiques.
Un interprétateur se trouve dans la situation d’un enquêteur qui doit reconstituer l’histoire
des événements pour élucider un crime. Il dispose pour cela d’un ensemble d’indices et de
témoins. Si les témoins ne mentaient pas ou fournissent des témoignages précis, la résolution
d’une enquête serait directe. Il en est de même pour l’interprétation géologique. Les témoins
sont des caractéristiques de l’image analysée. Certaines de ces caractéristiques peuvent mentir
(artefacts d’acquisition) ou bien fournir des informations ambiguës ou certaines peuvent avoir
disparus (il n’existe pas forcément de trace d’un événement d’érosion) [Hamdurger, J 1990]. Cet
ensemble de connaissances qui correspond à la faculté de comprendre une image telle que le
pointé d’une coupe sismique ne recouvre qu’une partie de l’expertise d’un géologue géophysicien.
Le premier objectif de l’interprétation, est d’établir des cartes structurales. La disposition
tectonique régit les types de structures présentes et la manière dont les traits structuraux sont
agencés. Une synthèse des styles structuraux précède l’examen des indices géologiques. Nous
étudions en particulier les traits géologiques suivants : les failles, les structures plissées et
fluentes, les récifs, les discordances [Serra, O. 1985].
Sur le plan structural, l’interprétation s’attache à localiser les discordances qui délimitent les
séquences, à reconnaître les différents environnements du bassin au continent. Son
développement n’étant pas lié aux progrès de la sismique, et ne nécessitant aucun traitement
particulier, la solution géophysique ne rencontrait pas trop de difficultés pour satisfaire les
conditions imposées, cependant elle était tributaire des développements des concepts
géologiques, et des progrès de la sédimentologie.
Le piège, pièce centrale de l’exploration pétrolière, est une zone fermée, présentant
généralement un potentiel relativement faible par rapport aux zones voisines. On distingue
habituellement les pièges structuraux et les pièges stratigraphiques qui sont les plus fréquents.
Les pièges structuraux, tels les dômes et les anticlinaux, sont à la fois les plus nombreux, les plus
3

CHAPITRE I

NOTIONS GENERALES

importants et, peut-être pour cette raison, les plus faciles à détecter. Mais il apparaît de plus en
plus nettement que le piégeage est bien plus une question de dynamique que de géométrie et les
facteurs sédimentologiques, hydrodynamiques et géodynamiques, la position dans le bassin aussi
bien que le facteur temps, jouent un rôle souvent plus important que la stricte architecture. Les
caractéristiques pétrophysiques s’expriment fondamentalement en termes de porosité et de
perméabilité, dont les relations sont souvent complexes [Perrodon, A 1985]. Elles sont les résultats
de toute l’histoire géologique des dépôts, et en particulier des conditions de sédimentation.
Quelques exemples des principaux types de pièges structuraux et stratigraphiques sont illustrés
sur les figures 1 et 2. De façon plus précise, la connaissance des mécanismes qui déterminent les
caractéristiques des réservoirs est fondamentale, car elle permet de prédire certaines variations
avant le forage, qui est une donnée importante d’évaluation des prospects.
Les pièges stratigraphiques sont premièrement reconnus par leur potentiel en hydrocarbure.
Un piège stratigraphique est en général un terme pour désigner un piège qui est principalement
le résultat d'une variation latérale de la lithologie des roches réservoirs ou bien une interruption
dans leur continuité, et finalement est plus subtil dans la nature ainsi que son expression
sismique.
La sismique stratigraphique, recouvre deux domaines bien distincts quant à leur échelle
d’intervention et à leurs techniques d’après [Lacaze, J. 1989] :
1. La lecture géologique de la section sismique.
2. La sismique lithologique.
Le premier permet la mise en place de la géologie du bassin, cette technique ayant
progressée dans les années 1975-1977, et son développement n’étant pas lié aux progrès de la
sismique. Le deuxième volet spécifiquement géophysique est l’approche directe de la lithologie
et des fluides à l’aide des paramètres sismiques ; elle se situe à l’échelle du gisement, et fait
appel à l’analyse des différents paramètres sismiques telles que l'amplitude, la fréquence, la
phase, etc. Ce deuxième aspect est plus spécifique en ce sens qu’il est étroitement lié aux
développements des techniques géophysiques. Il nécessite des traitements appropriés, des
représentations particulières, et une analyse statistique.
L’approche par les paramètres sismiques passe par des traitements spécifiques et la plupart
du temps par l’utilisation de puits pour le calage ; c’est surtout la technique qui essaie d’étudier
l’extension des caractéristiques pétrophysiques visibles sur un puits, à travers essentiellement la
sismique de gisement ou d’exploration secondaire dans des zones déjà reconnues par forage
[Lacaze, J. 1989].
Pour repérer les pièges stratigraphiques sur la section sismique, il est en général nécessaire
de disposer d’une qualité et d’une résolution meilleure que pour les pièges structuraux. Il est
évident que toutes les informations sur la lithologie que l’on peut déduire de la sismique sont de
première importance. Il y a deux façons d’aborder ce problème, la première basée sur l’analyse
des données quantitatives des vitesses, les amplitudes, la polarité, et la fréquence des réflexions,
et le progrès récent des techniques du traitement des données sismiques ont grandement
amélioré la confiance qu’on peut accorder à cette approche. La deuxième manière consiste à
repérer sur les coupes sismiques toutes les caractéristiques de réflexions qui peuvent être
interprétées en terme du dépôt. Toutes les conclusions finales doivent s’appuyer sur la
combinaison des deux types d’étude, et comme la plupart des travaux d’interprétation, elles
seront d’autant plus sûres qu’elles pourront être recoupées avec les données de forage [Siraki, E,
S 1997].
4

CHAPITRE I

NOTIONS GENERALES

Dans le cas de l’interprétation lithologique, les paramètres sismiques, amplitude, fréquence
et phase des réflexions, contiennent des informations à la fois sur la lithologie, sur les caractères
pétrophysiques, et sur le volume de fluide. Le problème qui se posera à l’interprétateur est de
savoir s’il existe une relation entre les paramètres physiques et l’impédance acoustique, c’est-àdire, la vitesse et la densité. Ce problème est complexe, car de nombreux paramètres sont
susceptibles d’influer sur l’impédance acoustique et ceux-ci sont souvent liés entre eux. La
réflexion sismique englobe ces paramètres et la difficulté reste de déterminer ceux qui influent
sur cette impédance acoustique. Pour cela, il faut faire appel à différents outils de modélisation
- inversion pour aider à faire ce choix. [Henry, G. 1997].
L’acquisition des données fait passer de l’objet à l’image. On peut simuler cette acquisition
par une modélisation, c’est le problème direct. Pour passer de l’image à l’objet il faut résoudre le
problème inverse.
Pour la prospection géophysique, le problème inverse se heurte à un obstacle redoutable,
l’indétermination fondamentale. Cette indétermination est le résultat de deux causes principales:
1.
La relation non-linéaire entre la réponse sismique et les paramètres du milieu
(problème mal posé).
2.
Des connaissances incertaines :
‰
Les données d’observation contiennent des incertitudes expérimentales
(erreurs de mesures ).
‰

La théorie physique de modélisation est une approximation d’une réalité
encore beaucoup plus complexe (erreur de modélisation).

L'indétermination a été manipulée par les écoles de pensées. De point de vue mathématique
pure, on se réfère à la définition de Hadamard d’un problème mal posé : un problème est mal
posé si sa solution n’est pas unique ou bien si cette solution n’est pas une fonction continue de
données (une petite perturbation des données correspond à une large perturbation de la solution).
Aujourd'hui il existe un accord général qu’un problème mal posé a une extension bien posée
possédant une signification claire, par l’utilisation d’une information a priori sur le modèle. Par
exemple, Franklin 1970 a supposé donner une statistique a priori sur l’espace du modèle.
Quelques méthodes d’inversion sont dites exactes ; elles concernent les problèmes dont les
données et les inconnues peuvent être reliées par une application inversible (généralement non
linéaire). Dans ces techniques la redondance et l’incertitude sur les données ne peuvent être
manipulées. Il en résulte que ces méthodes sont utilisables uniquement sur le plan mathématique
mais pas pour l'interprétation des données.
Chaque problème est un cas spécial et admet en général une infinité de solutions. Pour en
choisir la meilleure, conforme aux données géologiques et aux résultats procurés par toutes les
méthodes géophysiques, on doit se placer du point de vue du géologue et de mathématicien. Cela
permet d’atteindre un double objectif: extrapoler les données géologiques en se basant sur les
résultats géophysiques et écarter les solutions mathématiques inconsistantes.
Dans l’état actuel des connaissances, on peut considérer la redondance de l’information
sismique d’une part, et la diversité de l’information dont on dispose en géophysique d’autre part,
ce qui constitue un moyen très efficace pour stabiliser et assurer l’existence et l’unicité de la
solution du problème inverse. Par ce biais on peut accéder à l’approche directe de la lithologie et
à la détection directe des hydrocarbures après avoir bien estimé les paramètres acoustiques qui
caractérisent la formation géologique.
5

CHAPITRE I

NOTIONS GENERALES

I-2 APERCU HISTORIQUE SUR L’INTERPRETATION SISMIQUE
Etant donnée la complexité du problème géologique à résoudre, l’interprétation des données
sismiques a subi plusieurs transformations en parallèle avec l’évolution de l’outil informatique
et électronique de puissance utilisé, et que l’on peut résumer comme suit :
1. Au temps de l’enregistrement analogique, l’intérprétateur pointait les films et après
correction, reportait les réflexions sur une coupe-temps qu’il migrait à l’aide d’abaque avec
des vitesses qui lui étaient fournies par des mesures aux puits.
2. Avec l’enregistrement magnétique puis numérique, il dispose de sections corrigées,
lesquelles il suivait les horizons en utilisant des couleurs caractéristiques et les calait avec le
film synthétique, que lui fournissait les diagraphies continues de vitesses.
3. Au cours des années 70, avec l’apparition des petits ordinateurs de bureau avec leurs
périphériques graphiques, les pointés des sections étaient numérisées sur une table à
digitaliser et les résultats étaient migrés sur ordinateur grâce aux données de vitesses
continues obtenues sur le profil ; de plus le progrès de l’enregistrement et de traitement lui
permet d’exploiter les amplitudes sismiques et d’attribuer une signification géologique aux
formations après les avoir éventuellement modélisées.
4. A la fin des années 70 le progrès du traitement commence à provoquer une évolution chez
l’interprétateur. A partir du début des années 80 par la sismique 3D, qu’intervint la station
d’interprétation qui marque le temps de l’interprétation sismique informatisée. Cette dernière
nous a conduit à la tendance actuelle de l’interprétation sismique intégrée, que l’on définit
comme l’ensemble des méthodes sismiques qui s’appuient sur des données géologiques pour
aboutir à un modèle physique géologiquement et géophysiquement cohérent.
De façon générale, la géologie et la géophysique, ont une place à prendre ou plutôt à
reprendre. Après une longue période couvrant la première moitié du siècle où la géologie était la
reine de l’exploration pétrolière, les progrès rapides et considérables de la géophysique, et tout
particulièrement de la sismique réflexion, ont amené une certaine fascination par les
perfectionnements, en apparence illimitée, de cette technique [TISSOT, B 1988] [Perrodon, A 1985].
La nécessité de rechercher de l’huile ou du gaz dans des conditions où l’exploration est très
coûteuse, et donc d’améliorer le taux de succès des forages, redonne tout leur poids aux deux
autres éléments que sont la roche mère et le réservoir, d’où le développement d’une nouvelle
discipline - la sismique de gisement - et son intégration avec l’interprétation géophysique dans
les modèles géologiques. L’ensemble a déjà permis d’augmenter le taux de succès des forages
d’exploration de 1 sur 10 vers 1970 à 1 sur 7 actuellement ; atteindre 1 forage sur 4 ne parait pas
hors de portée, grâce en particulier au développement des modèles géologiques, dont l’impact
sur les découvertes se fera surtout sentir dans les années 1990 (tableau) [TISSOT, B 1988]

Années Taux de découverte
1970
1 FORAGE SUR 10
1986
1 FORAGE SUR 7
199.

1 FORAGE SUR 4

Principal élément considéré
PIEGE (Sismique)
RESERVOIR PIEGE
(Progrès en Sismique, Géologie )
INTEGRATION DES DONNEES GEOLOGIQUES
GEOPHYSIQUE DANS LE MODELE DU BASSIN

Doucement exploration Revue de l’IFP.
6

CHAPITRE I

NOTIONS GENERALES

En géologie la sédimentologie et son application à la description des réservoirs font l’objet
d’une nouvelle demande. Compte tenu du caractère dispersé des puits, et de la difficulté de
rendre compte des hétérogénéités du réservoir à l’échelle hectométrique ou kilométrique, ce sont
les concepts géologiques qui, appuyés sur la géostatistique et traduits en modèle numérique,
permettront l’interprétation entre puits. Le gain que l’industrie peut espérer de ce renouveau de
la géologie du réservoir est important tant au stade de l’évaluation du gisement (moins de puits
de destination ) qu’à celui de l’exploration (optimisation du maillage et réduction du nombre de
puits de développement, orientation du programme d’injection d’eau ou de récupération
tertiaire).
En géophysique, deux orientations nouvelles marquent la géophysique actuelle : La sismique
du gisement, particulièrement entre puits et de surface (PSV et PSO) ou entre puits, qui permet
d’améliorer considérablement la description de l’architecture des gisements (géométrie et faciès),
en particulier pour les besoins des producteurs, grâce au développement de nouveaux matériaux
(source de puits, flûte de puits). L’interprétation de ces mesures doit évidemment s’appuyer sur
les travaux de la physique des roches et intégrer les résultats fournis par les diagraphies. La
seconde orientation vise d’abord l’exploration, mais également, avec un certain décalage, la
production : il s’agit de l’interprétation intégrée des données sismiques en termes géologique. On
utilise jusqu’ici un ensemble de techniques distinctes : interprétation sismique, interprétation des
diagraphies, modélisation géologique, modélisation sismique (où un travail considérable reste à
faire ), dont les résultats sont intégrés manuellement ou avec des outils de portée limitée. Le
besoin de l’interprétation intégrée se fait donc sentir. Elle devra prendre en compte l’ensemble
des connaissances sédimentologiques, structurales, des mesures sismiques et diagraphiques, etc,
représentant tout l’acquis de l’exploration antérieur du bassin, qui trouvera ainsi une valorisation
permanente. Le problème de l’interface homme - machine est très important : il faudra, bien sûr,
que le géologue-géophysicien intérpretateur puisse intervenir directement grâce à un programme
d’accès facile. De même les résultats devront être visualisés, y compris en trois dimensions (3D),
de façon simple et parlante pour soutenir, et non compliquer, le raisonnement du géologue
[Henry, G. 1997] [TISSOT, B 1988].

GEOLOGIE

GEOPHYSIQUE

GEOCHIMIE

HYPOTHESES
GEOLOGIQUES
EXPLICITES

MODELE
GEOLOGIQUE

LOIS PHYSIQUES
GEOLOGIQUES ET
CHIMIQUES

Fig. 03 Le modèle physico-géologique

7

CHAPITRE I

NOTIONS GENERALES

Le modèle physico-géologique (Fig.03) représente la synthèse, longtemps souhaitée, enfin
accessible, de toutes les données géologiques, géophysiques et géochimiques, concourant à la
découverte du pétrole. L’intégration de toutes ces informations élémentaires offre au responsable
de l’exploration de nombreux avantages. D’abord assurer une meilleure cohérence des
interprétations fournies par chacun des spécialistes, ensuite donner la possibilité de tester de
façon explicite diverses hypothèses géologiques sans violer les lois de la physiques ou de la
chimie ; évaluer la nature et la masse des hydrocarbures disponibles, et la probabilité pour chaque
structure de les avoir piégées ; accéder enfin aux problèmes difficiles des réserves ultimes d’un
bassin [Henry, G. 1997].

I-3 ORIGINE DES INFORMATIONS PHYSICO-GEOLOGIQUES
I-3-1 LA SISMIQUE DE SURFACE
La section sismique continue d’avoir sa fonction de définition morphologique de la structure
ou des pièges à forer ; son rôle s’est fortement accru depuis une décennie, dans une optique de
sédimentologie, prenant tout naturellement la place autrefois occupée par le puits dans la
reconstitution de la nature et de l’évolution du bassin [Lacaze, J. 1989].
La manipulation des divers paramètres par des méthodes informatisées comme l’emploi de
fausses couleurs visualisation sur l’écran, etc. a fait d’énorme progrès a travers la prédiction du
faciès lithologie et la détection directe des hydrocarbures sont devenues les techniques de pointe
pour des spécialistes ayant de bonnes bases sédimentologiques et de solides connaissances dans
le traitement de la section sismique.
Il est clair que la sismique de surface a dépassé les autres méthodes, mais souvent la
sismique ne peut distinguer des interfaces dont la distance est inférieure à quinze ou vingt
mètres, alors que bien des réservoirs n’ont que quelques mètres d’épaisseur. Comment alors peut
on déterminer les caractéristiques des fluides renfermés ? Les explorations s’efforcent de
résoudre ce problème grâce à la sismique haute résolution, dont les moyens utilisés consisteront
à [Henry, G. 1997] :
• Accroître et préserver les fréquences à tous les stades d’émission et de réception,
d’enregistrement et de traitement.
• Atténuer les bruits superficiels qui interférent avec la zone des objectifs.
• Diminuer les bruits hauts fréquences qui interférent avec la zone d’étude dans le domaine spectral.
Donc à partir de la sismique de surface il est possible d’améliorer l’implantation des puits et
par conséquent d’augmenter le taux de succès à l’exploration.

I-3-2 LA SISMIQUE DE PUITS
La nécessité de mieux connaître les réservoirs pour les exploiter de façon optimale a conduit
les géophysiciens à développer des techniques particulières de la sismique de puits, à plus haute
résolution, que la sismique de surface [Mari, J. L 1994].
La sismique de puits est une opération pour laquelle un signal sismique émis à la surface du
sol est enregistré par un géophone situé successivement à différentes profondeurs dans le puits.
La source étant toujours sur la même verticale que le géophone.
8

CHAPITRE I

NOTIONS GENERALES

La sismique de puits est lourde de mise en œuvre, et a une investigation latérale limitée à
quelques centaines de mètres, mais devrait permettre une meilleure connaissance de la
répartition de vitesse dans le sous-sol, afin de mieux modéliser les réservoirs et d’affiner le
modèle géologique de production. Dans la plupart de cas les puits sont implantés en fonction des
données sismiques pour vérifier les hypothèses géologiques, et valider l’interprétation (position
de faille, top de structure).
La sismique de puits est l’outil du gisement actuellement le plus utilisé ; ses principales
applications sont :
• Le calage en profondeur de la sismique de surface.
• La mesure des vitesses des ondes P et/ou S.
• L’identification des réflexions primaires et multiples.
• L’estimation du pendage des réflecteurs.
• La localisation des plans de faille.
• La prédiction de réflecteurs en dessous du puits.
• L’obtention d’informations lithologiques, permettant la calibration de la section sismique qui
consiste à estimer la répartition des impédances acoustiques et l’ondelette sismique optimale
dans une zone temporelle située autour de l’objectif géologique sur le profil sismique, en
utilisant l’impédance acoustique fournie par la diagraphie de puits.

I-3-3 LA SISMIQUE ENTRE PUITS
Dans la sismique entre puits, l’émission est faite dans un puits émetteur, la réception dans
un autre puits récepteur, ce qui nous permettrons d'avoir des enregistrements dont le contenu
fréquentiel s’élève jusqu'à 250-300Hz.
Le problème essentiel est d'ordre technologique, car la mise en œuvre nécessite la
disposition d'une source puissante qui peut fonctionner sans endommager le puits. Diveres
sources sont actuellement testées ; piézo-électriques, chute de poids. Un autre problème est
observé : résultat de l’influence du couplage de la source avec la paroi du puits sur le type des
ondes émises [Mari, J. L 1994].
La distance entre puits doit être choisie de telle sorte que l'onde émise par la source et
enregistrée par la sonde soit une onde directe. La vitesse du milieu est alors égale au rapport de
distance entre puits.
Deux types de géométrie de mise en œuvre sont couramment employés, par un puits
émetteur et autre récepteur. La mise en œuvre rectangulaire donne la répétition des vitesses sur
deux directions orthogonales et met en évidence l'anisotropie du milieu. La mise en œuvre en
ligne, qui confirme une interprétation préalable et étudie les variations latérales de la vitesse.
L'utilisation de cette technique nous permet d'obtenir la répartition de vitesse, par une
méthode itérative basée sur un processus de moindres carrées. Ce type du calcul conduit à une
solution relativement lisse de la répartition de vitesse et à une tendance à faire disparaître les
variations latérales brutales de vitesse correspondant à des accidents techniques.
En raison de la complexité des enregistrements obtenus lors de telles mise en œuvres, seuls
les temps des premières arrivées ont été exploités, cependant, les résultats obtenus par inversion
de temps de premières arrivées (tomographie de vitesse) peuvent être confrontés à des
9

CHAPITRE I

NOTIONS GENERALES

diagrammes d'analyse qui fournissent pour un modèle géologique donné (lentille) et une
configuration de puits donnée [Mari, J, L et al 1998].
I-3-4 LA DIAGRAPHIE ACOUSTIQUE
Les informations de diagraphie ont pris de plus en plus d'importance, au fur et à mesure du
développement, tant en qualité qu'en diversité, ce qui constitue un outil de corrélation de la mise
au point de méthode d’interprétation constamment perfectionnée.
On peut raisonnablement dire que la diagraphie "photographie en continu" les formations
traversées. Elle en donne une image pratiquement continue, fidèle, objective et quantifiable.
Pour un calage sur puits, la sismique a besoin de deux paramètres, la vitesse pour le problème
de propagation et la masse volumique pour estimer l'impédance acoustique. Les logs densité
fournissent la densité avec une précision raisonnable ; les diagraphies de vitesse se sont
spécialisées pour les besoins de la sismique afin de lui fournir des données plus fiables et plus
complètes[Serra, O. 1985].
Compte tenu du lien étroit qui unit les paramètres diagraphies et géologiques, et plus
précisément de la filiation des mesures des diagraphies à la géologie, il faut considérer les
données de diagraphie comme des données géologiques et leur appliquer les mêmes principes et
méthodes [Mari, J. L et F. Glouyeaud. F. Coppens 1997]. L’interprétation des diagraphies consiste en
effet en la traduction des paramètres en données géologiques, car elles peuvent fournir au
géologue des informations fondamentales dans un premier stade sur la composition, la texture et
la structure sédimentaire des roches, ce que reflète le changement du faciès et l’environnement
du dépôt, et dans un second stade sur leur géométrie et leur relation mutuelle par établissement
de corrélation entre sondage et étude de déformation.
La comparaison d’une section sismique et d’un log sonic a amené à se poser la question de
la relation entre ces deux documents et l’intégration de leurs apports respectifs. L’acoustique est
le lien le plus naturel entre la discipline sismique et la diagraphie, bien que travaillant dans des
bandes de fréquences très différentes, les diagraphies acoustiques et la sismique sont régies par
les mêmes lois de propagations des ondes. Complémentaire de l'analyse sédimentologie et de la
diagraphie sismique, les méthodes de diagraphie " se situent à une échelle d’observation
intermédiaire entre ces deux techniques ".

I-3-5 LES DONNEES GEOLOGIQUES
Les géologues ayant amassé, analysé, comparé, une grande masse d'informations, qui une
fois restituées en position et en pendage dans l'espace, ont permes d'élaborer des cartes
géologiques de surface. Ces cartes et coupes tentaient avec des puits peuvent aider à extrapoler
vers le bas la forme des couches [Serra,O .1985].
Les données de forage constituent les données les plus sûres pour obtenir un contrôle
géologique sur une interprétation sismique ; ces données sont de deux sortes :
• Celles liées aux échantillons des roches (carotte en plein diamètre, ou prélevés à l'aide d'un
carottier à balle, déblais) et aux échantillons de fluides.
• Celles liées aux mesures géophysiques réalisées dans le forage donc essentiellement aux
diagraphies.
Les carottes en plein diamètre, de part leur taille et seulement dans la mesure où elles sont
continues, constituent un échantillon de bonne valeur, duquel une bonne partie des données
pourra être obtenue.
10

CHAPITRE I

NOTIONS GENERALES

Quand l'intérprétateur aborde le calage de ces coupes sismiques avec la coupe du forage, il
doit faire face au problème des corrélations directes entre miroirs à une échelle verticale en
temps de réflexion et la réalité géologique du sous-sol comme par examination lithologique des
déblaies des roches, et des carottes en provenance du trou de forage.
La coupe lithologique du géologue est d'une grande importance, car elle fournit la base de
l'identification des miroirs en termes de limite entre milieux de type différent. D'autre examens
géologiques ont pour but de déterminer l’âge et la stratigraphie de la coupe sismique, avec le
résultat de l'analyse des données du forage d'exploration qui seront présentées sous forme d'une
échelle litho-stratigraphique, ainsi que d'un autre chrono-stratigraphique [Serra, O. 1985], [Mari, J.
L 1994], [Mari, J. L et F. Glouyeaud. F. Coppens 1997].

Toutes les informations géologiques du forage seront utilisées pour le calcul d'un film
synthétique qu’on utilise pour le calage et l'identification des miroirs sur la section sismique. On
va donc superposer ou intercaler le film synthétique au bon endroit de la coupe sismique passant
par le forage. Il n'est pas raisonnable d'espérer une ressemblance parfaite en amplitude en phase,
en fréquence, etc. Il y a souvent un décalage en temps dû à une courbure d'indicatrice ou des
corrections statiques incorrectes, des mauvaises corrections de zone altérée, etc.

I-4 ENCHAINEMENT D’ETUDE
Les techniques qui viennent d’être évoquées sont utilisées dans une étude du gisement pour
fournir les données nécessaires à la construction d’un modèle géologique du gisement (Fig.4).
Ce modèle comprend à la fois des données sur le réservoir et sur le fluide qu’il contient
L’enchaînement des acquisitions et des études doit respecter certaines règles de façon à
minimiser le coût de l’ensemble des opérations et à rendre plus efficace chaque étude [Mari, J. L
et F. Glouyeaud. F. Coppens 1997].

Le premier travail consiste à faire une traduction géophysique du problème posé. Pour ce
faire, le géophysicien doit avoir de bonnes connaissances des travaux antérieurs éventuels, de la
géologie locale, des forages existant, de façon à minimiser le coût des opérations.
Une fois cette traduction accomplie, il faut choisir la méthode appropriée selon les facteurs
suivants :
◊ La présence d’un contraste suffisant.
◊ La pénétration.
◊ Le pouvoir de résolution.
◊ Une interprétation non univoque.
En prenant en compte les informations des diagraphies, la sismique avec ses facettes
(surface à surface, surface à puits, puits à surface, puits à puits) donne une image structurale
détaillée du sous-sol et tout particulièrement de la zone réservoir. Elle apporte aux géologues et
aux producteurs des informations lithologiques fines et pétrophysiques. Elle localise dans une
certaine mesure les zones à hydrocarbures en utilisant l’indicateur direct d’hydrocarbures.

11

CHAPITRE I

NOTIONS GENERALES

PSP

SISMIQUE ENTRE PUITS
PSV
SISMIQUE DE SURFACE

SISMIQUE/ FORAGE

Fig.4 Domaines d’investigation des méthodes sismiques

I-5 ACQUISITION DES DONNEES STRATIGRAPHIQUES
Au moment de tracer le programme du maillage, il est important de prendre en considération
le but pour lequel la sismique est retenue. Les compagnes destinées à résoudre des problèmes
géologiques spécifiques sont généralement faites à un stade où on dispose déjà d’un volume
raisonnable de données, de sorte que la position des profils sur le programme dépend du
problème et des données existantes.
Pour interpréter la section sismique en termes d’objectif stratigraphique, les données
sismiques doivent être exceptionnelles ; quand on cherche à identifier le changement de faciès,
et celui de la porosité, le contenu du fluide etc. On doit disposer des données sismiques de
meilleure qualité, ce qui permet d'observer et de mesurer le plus petit changement en amplitude
et en temps du parcours. L'ondelette est le facteur le plus dominant pour obtenir la haute
résolution dont on a besoin dans l’interprétation stratigraphique.
Le document de base doit nous permettre de mieux suivre les variations verticales et
latérales des amplitudes, liées aux variations du coefficient de réflexion. La réalisation de ce
document n'est pas facile et ne constitue jamais qu'une approche ; il est évident qu'elle nécessite
la prise en considération de différentes corrections comme par exemple, la compensation de
l'atténuation du signal avec la profondeur (dus à l'absorption et à la divergence sphérique ) ; la
prise en compte des variations de signal au niveau des sismographes et de la source sismique,
des effets de focalisation, de défocalisation dus à la courbure des miroirs. Il faut être prudent
avec l'égalisation utilisée, et les déconvolutions ou démultiplications réalisées en supposant que
le spectre d'une série géologique est blanc, ce qui est faux. Enfin, il est nécessaire de multiplier
les types de représentation pour mettre en valeur toutes les informations contenues dans la trace
sismique.
Les relations entre l’interprétateur et le responsable du traitement ont une grande
complémentarité. Une bonne partie de l’interprétation est implicitement faite au stade du
traitement. Cela est particulièrement vrai pour la détermination des vitesses par laquelle on peut
mettre des événements en évidence ou au contraire les faire disparaître dans la sommation
12

CHAPITRE I

NOTIONS GENERALES

ultérieure. Il est important de connaître la géologie de la région pour pouvoir s’assurer de la
vraisemblance des lois de vitesses envisagées [Mcquillin, R et al 1979].
Chaque programme d'acquisition et de traitement des données doit mettre au point une
importance majeure au signal à utiliser, qui doit présenter une énergie suffisante dans la gamme
de fréquences sismiques et certaines caractéristiques de forme et de position qui la rend apte au
traitement et à l’interprétation [Henry, G. 1997].
Généralement en utilise trois types de source pour acquérir les données sismiques
stratigraphiques : la dynamite ou le vibroseis ; le plus souvent on utilise la dynamite car elle
produit un signal à grande pénétration et un large spectre de fréquences. On utilise la vibroseis
dans les régions habitées ou bien dans le cas où l’implantation de la source explosive serait
difficile, ajoutant que le vibroseis est moins chère que la source explosive. Dans la sismique
marine on utilise généralement le cano à air. La Fig.5, montre les types de signaux à partir de
ces trois types de source. On peut voir le caractère minimum - phase produit par une source de
type explosif et celui de zéro - phase générée par le vibroseis et le canon à air, cependant le
signal généré par ces sources n'est pas toujours celui désiré, car il y à plusieurs facteurs affectant
ce signal, comme le couplage du sismographe, la profondeur d’enterrement de la charge, les
conditions du milieu superficiel... etc.
Cependant, le signal utilisé diffère de celui désiré, car il présente souvent plusieurs pics et
une longue durée dans le temps, ajutant les interférences constructives et destructives, aussi
l’ondelette est complexe en fréquence et en amplitude, ce qui donne en résultat un signal très
complexe.
On enregistre le signal lors de l'acquisition des données, car au cours du traitement nous
avons besoin de connaître la forme exacte de la réflexion. Si on ne dispose pas de
l'enregistrement du signal original, on doit extraire une estimation de l’ondelette, à partir des
données enregistrées utilisant des diverses techniques de déconvolution statistique ; pour cela
nous devons poser des hypothèses sur la phase de l’ondelette zéro phase ou bien minimum
phase) ( [Siraki, E, S 1997].

I-6 RESOLUTION ET DETECTION
A chaque rupture d'impédance, une ondelette sismique prend naissance ; la trace sismique
est constituée par l'interférence de ces ondelettes entre elles. Lorsque les interfaces se
rapprochent, ces ondelettes s’additionnent de plus en plus intimement au point qu'il devient
difficile de les distinguer. On peut estimer la distance minimum au-dessus de laquelle elles
deviennent indiscernables ; cette distance définira le pouvoir de résolution verticale de la
sismique [Henry, G. 1997].
A ce stade, cependant, une réflexion subsiste encore. Lorsque la distance entre les interfaces
continue à diminuer, il arrive un moment où la réflexion disparaît complètement, noyée dans le
bruit : cette épaisseur minimum définira le pouvoir de détection de la sismique [Henry, G.
1997], [Siraki, E, S 1997].
Enfin, dans la dimension horizontale de la forme géologique, lorsque deux points - miroir se
rapprochent, il arrivera un moment où leurs images ne seront plus indépendantes. La dimension
minimum d'un objet identifiable en sismique définira son pouvoir de résolution latéral, Sheriff a
défini la résolution latérale comme la première zone de Frenel, qui est une zone de réflexion
dans laquelle, le mouvement de toutes les particules est dans le même sens et l'interface
constructive produit une réflexion.
13

CHAPITRE I

NOTIONS GENERALES

En autre, pour observer les pièges stratigraphiques sur la section sismique, il faut que les
dimensions du piège soient plus grandes que la résolution sismique, si cette dernière est élevée,
il est possible d'observer le plus petit changement dans la réponse sismique. Ce changement va
indiquer le piège stratigraphique. On augmente la résolution dans deux directions, l'une latérale
(direction X horizontale) et l’autre verticale (direction de Z temps ou profondeur).
M.Lavergne [Siraki, E, S 1997] indique les valeurs moyennes de la résolution verticale
suivantes :
• Profondeur <=500m la résolution est d'ordre de 5m.
• Profondeur de 2km la résolution est d'ordre de 20m.
• Profondeur de 8km à 10km la résolution est d'ordre de 100m.
Il existe plusieurs cas où on peut améliorer la résolution des données sismiques, et l'image
du piège stratigraphique (objectif). Pour améliorer la résolution latérale, on jouera tout d'abord
sur la distance entre points miroir communs, ce qu’améliore la continuité et la lisibilité de la
section sismique. Toutes les formules définissant la résolution et la détection ont en commun le
facteur λ la longueur d’onde, donc si on réduit ce dernier, on accroît la fréquence. La taille de la
zone de Frenel qui définit la résolution latérale est fonction de la profondeur (distance entre le
point source et le point réflexion) ou bien le temps du parcours, leur vitesse et la fréquence qui
est donnée par la formule suivante :
R = V * T
F
4

Où :

V : La vitesse moyenne jusqu'au surface de réflexion.
T : Le temps double.
F : La fréquence dominante.
C'est la déconvolution qui sera l'outil essentiel, puisqu’elle a justement pour objectif de
remplacer l’ondelette physique par une pseudo-impulsion et qui supprime le pédalage et réduit
la longueur de L’ondelette.
En outre pour voir l’importance du caractère fréquentiel de l’impulsions sismique, dans
l’amélioration de l ’image géologique, nous avons choisi l’élaboration d’un exemple
synthétique, dans lequel nous présentons un modèle géologique Fig.6, formé de trois couches
avec des épaisseurs différentes, de forme pentée, la Fig.7 représente l’image sismique de ce
modèle calculée par une impulsion sismique à phase minimum et à fréquence 5Hz, on remarque
la disparition de certaines couches à partir de la trace 30, afin d’obtenir une amélioration dans la
distinction de ces réflecteurs, on a augmenté la fréquence de l’impulsion utilisée à 25Hz la
réponse est donnée par la figure.10. sur laquelle on observe un distinction plus nette entres les
différentes couches.
V1 D1
V2 D2
V3 D3

Fig.6 schéma représentant la forme d’un modèle géologique constitue de deux réflecteurs pentes.

14

CHAPITRE I

NOTIONS GENERALES
0

50

100

150

200

250

300

350

400

450

X(m)

0
100
200
300
400
500
600
700
800

T(ms)

Fig.7 La section synthétique calculée par un signal a 5Hz

0

50

100

150

200

250

300

350

400

450

X(m)

0
100
200
300
400
500
600
700
800

T(ms)

Fig.08 La même section reproduite par un signal a 25Hz
15

CHAPITRE I

NOTIONS GENERALES

I-7 LA DECONVOLUTION STRATIGRAPHIQUE
Le réflecteur renvoie une onde acoustique vers la surface avec une amplitude
proportionnelle au coefficient de réflexion. Ainsi un enregistreur placé en surface, recueillera les
réflexions issues des interfaces du sous-sol à des temps correspondant à un aller et retour de
l’onde sismique.
Si l’impulsion acoustique émise n’est pas déformée au cours de son trajet, on recueillera en
surface l’image de la suite des coefficients de réflexion du sous-sol, c’est-à-dire la suite des
contrastes d’impédance acoustique. Une simple opération d’intégration nous permettrait de
reconstituer le log d’impédance acoustique. Malheureusement, ce cas idéal n’existe pas. Si l’on
arrive à émettre un signal très bref en surface (explosion) avec un spectre très large en
fréquences, ce signal se déforme dans son trajet dans le sous-sol en une ondelette d’une forme
complexe et d’une longueur supérieure à l’espacement entre bancs. Ainsi, les signaux reçus
interférent et l’image finale est différente de celle de la suite des coefficients de réflexion. Nous
obtenons une trace difficile à interpréter (résultat de la convolution de ce signal et celle de la
suite des coefficients de réflexion), c’est-à-dire un produit contentant deux images : celle du
signal et celle de la suite de la suite de coefficients de réflexion. La connaissance d’une de ces
deux images nous permet d’en déduire la seconde par une simple opération dite de
déconvolution stratigraphique. Cette méthode utilise les données de puits pour estimer
l’ondelette, ces données sont fournies par les diagraphies, notamment la diagraphie de vitesse
(sonique) et la diagraphie de densité, qui permettent le calcul d’une trace sismique synthétique
de puits ; cette trace représente la suite des coefficients de réflexion en fonction du temps dans la
bande passante de la sismique. Si on fait l’hypothèse que cette ondelette ne varie pas le long
de la section sismique, la trace synthétique peut être remplacée par la trace somme obtenue
après traitement d’un PSV (profil sismique vertical). Si nous appelons r(t) la fonction de
réflectivité au puits obtenue, soit par la diagraphie, soit par le PSV, la trace s(t) issu de la section
sismique au voisinage du puits est proche de la convolution de r(t) par l’ondelette w(t). Le
passage de s(t) à r(t) est un problème de déconvolution qui peut être réalisé par le filtre de
Wiener. Le signal d’entrée est la trace sismique s(t), le signal désiré est la fonction r(t) connue,
l’opérateur du Wiener ow(t) est calculé tel que :

s(t)*ow(t) =r(t)
L’opérateur ow(t) est le signal inverse de w(t). L’application de l’opérateur ow(t) à
l’ensemble de la section sismique réalise la déconvolution stratigraphique de la section, dans
l’hypothèse d’une ondelette w(t) constante sur l’ensemble de la section sismique. La
déconvolution stratigraphique permet le calage en temps et en amplitude des données sismiques
et diagraphiques dans la bande de fréquences de la sismique de surface. En dehors de la bande
sismique, les amplitudes ne sont plus respectées, notamment la composante très basse fréquence.

CONCLUSION
En générale il faut effectuer trois types d’interprétation : structurale, stratigraphique et
lithologique. Dans certains cas assez rares, la méthode sismique réflexion permet d’accéder
directement à la détermination spatiale de l’hétérogénéité à mettre en évidence. Dans ce cas il
suffit de faire une interprétation structurale suivie directement d’une interprétation lithologique.

16

CHAPITRE I

NOTIONS GENERALES

Dans la plupart des cas, il faut faire entre ces deux interprétations une interprétation
stratigraphique. Cette dernière permet de définir des faciès qui par exemple seront des faciès
contenant ou excluant les hétérogénéité recherchées. Afin d’utiliser de manière optimale les
données de puits (déblais du forage, discription des carottes, diagraphie ) et les données de
surface en vue d’une meilleure caractérisation du réservoir (paramètres pétrophysiques,
architecture et géométrie ) il est judicieux d’opérer des calages entre toutes ces données, il
convient donc de connaître les moyennes de corrélation, en ayant de bonnes connaissances de la
fiabilité que l’on peut accorder aux mesures utilisées. Une autre façon d’obtenir le contrôle
géologique est le calage de l’interprétation sismique à la géologie des affleurements de la région,
son efficacité dépend de la bonne connaissance de cette géologie et de degré de sûreté avec
laquelle on peut extrapoler la structuration au niveau des affleurements vers le bas pour prédire
la structure en profondeur. Des difficultés sont susceptibles de se présenter, liées à la médiocrité
des informations sismiques.
La sismique de surface ayant un contenu fréquentiel borné ne comportant pas l’information
continue. La section trouvée en termes d’impédance par la déconvolution stratigraphique ne
permet pas l’estimation de la composante basse fréquence du log d’impédance. La recherche
d’une telle solution peut être introduite à l’aide d’un modèle a priori dans la technique
d’inversion.

17

CHAPITRE II

LE PROBLEME DIRECT

II-1 DEMARCHE GENERALE POUR L’ETUDE D’UN SYSTEME
Plusieurs voies permettent d’accéder à la compréhension des phénomènes naturels. La plus
importante et la plus ancienne d’entre elles, est sans doute la démarche naturelle. Celle-ci est
fondée d’une part sur l’observation des objets et du déroulement des processus lorsqu’ils sont
actifs, d’autre part sur l’interprétation des données analytiques diverses que fournissent les
différentes méthodes d’acquisition des données.
Le concept fondamental d’un système est un objet sous observation, étude, développement ou
construction. D’un point de vue industriel, un système peut représenter un petit mécanisme ou un
énorme complexe comprenant de nombreux sous-systèmes.
L’expérience montre, que la plupart des organes qui constituent un système physique, sont
variables dans le temps. Ils sont non-linéaires, à constantes essentiellement réparties et
contiennent des sources de bruits. Dans la théorie contemporaine du système physique, ces
organes sont analysés à l’aide du modèle composé d’éléments idéaux, à constantes localisées et
sans bruits. L’outil mathématique utilisé, est la théorie linéaire de la stabilité. On tient compte
des non-linéarités et des bruits d’une façon plutôt élémentaire.
Cela a pu faire dire à Fuller [Gumowski,I 1970] «actuellement il n’existe pas de théorie de
système qui tienne compte simultanément du bruit, de la variabilité dans le temps, des non linéarités, et des constantes réparties des éléments du système ».
L’état d’un système (modèle géologique dans notre cas ) à un instant donné, peut être défini
par un ensemble de variables internes et de variables externes, qui sont principalement les
suivantes :
9 L’excitation extérieure appliquée au système, (l’émission des ondes acoustiques en
sismique), dans le but de modifier son état interne.
9 Les actions perturbatrices, qui tendent à modifier l’état du système d’une façon
indésirable, et dont les effets constituent les erreurs d’observation (les multiples, les
diffractions en sismique réflexion, les bruits d’appareillage, etc).
Les relations entre les variables internes et externes du système donné peuvent être
représentées sous forme, d’un système d‘équations linéaires ou non, ou bien d’un schéma
fonctionnel, exprimant graphiquement les relations de cause à effet entre les diverses variables.
La démarche scientifique générale pour l’étude d’un système physique peut être subdivisée
en plusieurs étapes qui sont les suivantes :

II-2 PARAMETRISATION DU SYSTEME
Cette étape est basée sur la détermination d’un nombre minimal de paramètres, appelés
paramètres principaux. Ce nombre doit être capable de décrire l’évolution du système, en
fonction des différentes variations que peut prendre chaque paramètre. Selon le type de
phénomène physique observé (réflexion ; réfraction, absorption, temps de parcours etc.)
Plusieurs paramétrisations sont possibles, pour le même modèle, [Tarantola,A 1987].
La paramétrisation nécessite l’étude de la sensibilité de chaque paramètre.. Le problème de
la sensibilité par rapport à des variations de paramètres s’est posé tout d’abord en physique
mathématique, et en particulier pour l’étude des problèmes aux limites.

18

CHAPITRE II

LE PROBLEME DIRECT

On définit les facteurs ou paramètres principaux ceux influant grandement sur la fonction du
système. En terme mathématique, cela signifie que les dérivées de la fonction par rapport à ces
paramètres sont relativement grandes.
Les paramètres secondaires sont ceux dont dépend faiblement la fonction en question. Les
dérivées de la fonction par rapport à ces paramètres sont petites.
On définit formellement l’importance des paramètres en évaluant les dérivées de la fonction.
Cette évaluation est cependant laborieuse pour des problèmes compliqués [Bakhvalov,N. 1973].
La modélisation d’un problème est précédée d’abord du choix des paramètres et de
l’optimisation de ces derniers. Des difficultés sont inhérentes à cette démarche qui sont liées
d’une part, au choix des paramètres d’autre part l’optimisation d’un nombre de variables
relativement grand pose un problème d’espace mémoire et du temps de calcul.
Pour la formulation de notre problème, nous avons choisi la vitesse et l’impédance comme
paramètres du milieu. Le choix des paramètres impédance et vitesse par rapport à d’autres choix
possibles (densité et module d’incompressibilité par exemple) est motivé, par les effets couplés
de ces paramètres sur l’état vibratoire : schématiquement, la vitesse va caractériser la propagation
et détermine les temps d’arrivée des fronts d’ondes aux points d’observation, tandis que les
variations d’impédance vont engendrer les réflexions (Canadas et Kolb, 1986)

II-3 PROBLEME DIRECT
On part d’un modèle a priori d’une réalité physique pour simuler, suivant des lois physicomathématiques bien établies, les résultats qui seraient obtenues en appliquant les mêmes
méthodes de mesures à ce modèle [Henry,G. 1997]. On obtient alors un modèle physique que l’on
compare aux résultats des mesures, l’hypothèse initiale est modifiée, jusqu’à concordance des
résultats mesurés avec ceux calculés. On conçoit donc, la possibilité d’une interprétation
quantitative directe, interprétation par approximations successives ordonnées par la machine.
Mais il y a un risque possible par cette méthode : la machine au cours des rectifications
successives pourrait s’écarter trop de l’hypothèse initiale et arriver à une solution
mathématiquement juste, mais géologiquement inacceptable. Il faut donc imposer à la machine
une règle rigide pour palier son manque du sens géologique. Il semble qu’une telle règle puisse se
concevoir, c’est le principe de la plus petite modification, que l’ordinateur sera astreint à choisir
la plus petite parmi les modifications qui conduisent à réduire l’écart entre l’influence théorique
et les données expérimentales Fig.01.

19

CHAPITRE II

LE PROBLEME DIRECT

Données du forage

L’affleurement de surface

Les données sismiques

Le modèle géologique

Estimation de la source

Modélisation

Modifier les paramètres

Comparaison qualitative

Non

Validation
Oui

Utilisation
Fig.1 Principe de modélisation directe.

II-4 PROBLEME INVERSE
On appelle problème inverse, d’une façon générale, l’opération qui permet de remonter de
l’ensemble des mesures, au modèle qui a pu lui donner naissance. Pour toutes les méthodes
géophysiques le problème inverse se heurte à un obstacle majeur, celui de l’indétermination
fondamentale. S’il est toujours possible, de calculer théoriquement l’anomalie créée par une
structure de caractéristiques (géométriques et physiques ) données, le problème inverse demeure
indéterminé; à toute anomalie peut être associée une infinité de structures différentes. Une même
image pouvant correspondre à différents modèles de superposition des couches d’épaisseurs et
de nature différentes, mais elle s’en trouve considérablement simplifiée. Cette fâcheuse propriété,
connue à tous les champs géophysiques, parait réduire significativement l’intérêt de
l’interprétation quantitative. Il n’en est rien, heureusement, car certains facteurs permettent le plus
souvent d’isoler entre des limites relativement étroites l’ensemble de solutions géologiquement
20

CHAPITRE II

LE PROBLEME DIRECT

vraisemblables. De plus, un aspect particulièrement fructueux de l’interprétation quantitative
consiste à utiliser les données rassemblées par les géologues, c’est-à-dire à calculer les anomalies
correspondant aux divers modèles qu’ils ont été amenés à envisager puis à comparer ces
anomalies aux résultats expérimentaux c’est l’interprétation indirecte [Coulomb,J. et G.GOBERT
1973].

II-5 MODELISATION DIRECTE
La modélisation est une démarche courante de l’activité scientifique. Elle est rendue
nécessaire par le développement de la connaissance et la complexité de la réalité naturelle. Il est
donc important de prendre conscience de ce que représente cette démarche, d’en analyser la
méthodologie en s’appuyant sur des exemples, et d’expliquer ses buts et ses limites.
Modéliser un phénomène, c’est en construire, en s’appuyant sur certaines hypothèses, une
image qui représentera certains aspects de la réalité révélés par l’expérience. Il convient de
rappeler, que nous cherchons à simuler l’expérience d’un tir de sismique réflexion, c’est-à-dire, la
propagation des ondes élastiques (milieu solide) ou acoustiques (milieu liquide ), dans un demiespace à partir d’une source considérée comme ponctuelle. Une telle simulation permet d’obtenir
l’état vibratoire de la surface du milieu en fonction du temps, or en d’autre terme le sismogramme
synthétique.

II-6 MODELE - REPRESENTATION IMPARFAITE DE LA REALITE
Un modèle est une représentation imparfaite d’un phénomène observé qui n’a pas d’existence
réelle. Cette image ne peut pas être appréhendée en tant que telle et ce sont certaines
conséquences, révélées par le développement du modèle, et vérifiées expérimentalement, qui
rendent cette représentation crédible.
Pour illustrer la différence entre un modèle et la réalité qu’il représente, nous ferons un
parallèle avec la photographie. Lorsque l’opérateur appuie sur le déclencheur de l’appareil photo,
il crée sur la pellicule, ce qu’on appelle une image latente. La pellicule doit être développée pour
que cette image puisse être comparée à la réalité, c’est à dire l’objet photographié. Cette
comparaison met en évidence l’imperfection de l’image ainsi créée, par exemple elle ne donne
aucune information sur le relief de l’objet ni sur le mouvement éventuel. Ces imperfections ne
nous conduisent pas à abandonner la photo car elle peut être tout à fait satisfaisante pour les
couleurs, les contours de l’objet, etc. [Gumowski,I 1970].
Ainsi la validité d’un modèle est acceptable pour représenter certains aspects de la réalité,
suivant certains critères. Nous devons donc bien réaliser qu’un modèle peut représenter qu’une
partie des phénomènes observés sans que cela entraîne son abandon et son inutilité : les deux
descriptions corpusculaire et ondulatoire de la matière ont toutes les deux leur intérêt, pas plus
l’une que l’autre n’est meilleure au sens de mieux représenter la réalité, elles sont conservées et
utilisées toutes les deux à conditions que les conclusions que l’on en tire soient correctement
adaptées.

21

CHAPITRE II

LE PROBLEME DIRECT

II-7 MODELISATION MATHEMATIQUE ET PHYSIQUE
Le terme modélisation englobe en fait deux conceptions différentes, mais complémentaires,
que nous désignons sous les vocables modélisation mathématique et physique.
1. La modélisation mathématique : elle consiste à relier par des fonctions mathématiques
la réponse d’un système aux sollicitations ou contraintes qu’on lui impose, sans que
l’expérimentateur se soucie d’une interprétation de la forme de ces fonctions par l’analyse
de ce qui se passe à l’intérieur du système.
2. La modélisation physique : la modélisation physique est la construction d’un modèle à
partir des briques élémentaires qui constituent des lois physiques, même si ces dernières
sont issues d’une modélisation mathématique, ces lois ont des caractères suffisamment
universels.

II-8 MODELISATION QUALITATIVE ET QUANTITATIVE
Il est clair que la construction d’un modèle physique nécessite, dans un premier temps, une
analyse qualitative du phénomène afin de «recenser» les lois physiques élémentaires à prendre en
compte. Cette étape, sans doute la plus délicate, mérite tous les soins de l’interprétateur. Il n’est
jamais fructueux de se lancer dans le développement mathématique avant d’avoir soigneusement
résolu le problème qualitatif. Dans un certain nombre de cas, on reste à ce stade c’est-à-dire que
l’on ne poursuit pas l’élaboration du modèle par la quantification, on obtient alors un modèle
qualitatif ou une description du phénomène. Cette attitude peut avoir plusieurs causes, les deux
plus fréquentes sont soit un approfondissement insuffisant de la réflexion, soit une grande
complexité du phénomène qui rend le développement mathématique laborieux. L’expérience
montre qu’il est cependant préférable de procéder à une quantification même approximative et
très simplifiée plutôt que d’en rester à la simple description, car cette dernière aboutit souvent à
des imprécisions, voire à des erreurs de raisonnement très difficiles à détecter et on ne prend
jamais en compte les interactions entre les paramètres qui peuvent conduire à des synergies.
La modélisation quantitative doit impérativement commencer par une description qualitative
du phénomène, l’outil mathématique qui lui est ensuite appliqué joue un rôle de réalisateur.

II-9 ECHELLE DE LA MODELISATION
La modélisation se présente comme une construction à partir de briques élémentaires. Suivant
l’échelle à laquelle appartiennent ces briques, elle fixera l’échelle de la modélisation. Ainsi on
peut définir deux échelles limites, la modélisation macroscopique, construite à partir de résultats
macroscopiques telles que des lois générales issues directement de mesures expérimentales, et
une échelle microscopique. Ces échelles extrêmes ne sont pas antinomiques, très souvent elles
s’emboîtent l’une dans l’autre.
Il est cependant important dans toute activité de modélisation de fixer a priori l’échelle à
laquelle on se place, afin de ne pas mélanger les notions dans une même construction, pour mieux
appréhender le niveau de généralisation du modèle construit. Nous efforcerons de respecter cette
règle.
La construction d’un modèle géologique à différentes échelles, est en relation directe avec la
nature des données utilisées, et leur pouvoir de résolution. Sur le champs réel, une fois le
22

CHAPITRE II

LE PROBLEME DIRECT

gisement découvert, et la sismique y a généralement participé de façon importante, il faut le
développer ; pour cela, on réalise un modèle de gisement à partir des puits déjà forés et des
connaissances géologiques et géophysiques antérieures. Mais celles-ci ne seront pas suffisantes
car la description du gisement exige une échelle beaucoup plus fine que celle qui est utilisée pour
l’exploration. On appliquera donc des méthodes nouvelles et spécifiques qui utilisent le puits
comme émetteur et/ou récepteur. Cette sismique de gisement s’est beaucoup développée ces
dernières années et on estime actuellement que l’activité dans ce domaine est égale à la moitié de
celle de la sismique d’exploration. En effet, lorsqu’on passe des études de sismiques de surface
aux techniques d’analyse des données de puits, on franchit plusieurs ordres de grandeur dans le
domaine de la précision. De plus, dans l’échelle verticale, les diagraphies permettent aisément de
distinguer des bancs dissymétriques, tandis que le pouvoir de résolution verticale de la sismique
ne peut descendre aux profondeurs usuelles de la prospection au-dessous de 10 mètres. Entre les
2
deux un facteur de l’ordre de 10 intervient. En échelle horizontale, les diagraphies donnent
essentiellement une image de la paroi du trou, à la rigueur quelques centimètres derrière elle.
Alors que le pouvoir de résolution sismique est limité par l’échantillonnage spatial, en moyenne
3
de 25m, en sismique classique, c’est donc un facteur de l’ordre de 10 qui existe entre les deux
techniques [Henry, G. 1997] [Mari,J.L, F.Glouyeaud et F.Coppens 1997].

II-10 ETABLISSEMENT DU MODELE MATHEMATIQUE
Dans l’interprétation il y a toujours un travail de conception : il faut bâtir un modèle de la
partie de la terre intéressée par les mesures. Ce modèle simplifie la réalité en ne prenant que les
éléments les plus significatifs des mesures. Un modèle peut être un vrai modèle physique, une
expression mathématique ou simplement une image.
Les modèles mathématiques sont établis soit d’après les connaissances des sciences
classiques, soit d’après des résultats expérimentaux. Plus fréquemment ils sont obtenus par une
combinaison des deux méthodes. La formulation de ces modèles s’effectue en général d’une
façon progressive. On essaye d’abord les formes linéaires, puis on ajoute des termes
transcendants et non linéaires, et enfin on utilise les dérivées partielles et de déférents ordres
[Lions, J. L 1971].
Le problème de l’établissement du modèle mathématique d’un système réel peut être
considéré comme une version particulière, des deux aspects classiques, microscopique et
macroscopique de la physique, qui conduisent à ce qu’on nomme respectivement les modèle
inductifs et déductifs. Une première explication de cette situation consiste à constater qu’un
système physique est en général très complexe, ce qui entraîne la complexité de la description de
son comportement par des équations (modèle mathématique ). L’élaboration d’un nouveau
modèle dicte d’ordinaire la tactique suivante : On commence par construire un modèle très simple
reflétant les facteurs essentiels. Le modèle se complique progressivement par adjonction de
nouveau facteurs. Il nous faut donc considérer de nouveau problème de minimisation de fonction
dépendant d’un nombre toujours croissant de paramètres. Si les modèles auxiliaires sont
construits convenablement, la solution de chaque problème constitue en générale une bonne
approximation initiale pour un autre problème plus compliqué [Lions, J. L 1971] [Gumowski, I 1970 ].
Pour un modèle inductif, les propriétés du système complet sont déduites à partir d’une
connaissance détaillée des propriétés des composants, et de la détermination des interactions
23

CHAPITRE II

LE PROBLEME DIRECT

élémentaires entre eux. La variabilité du système est exprimée explicitement en fonction de la
variabilité de chaque composant isolé.
Pour le modèle déductif, on se basant sur l’observation des propriétés du système complet, y
compris la variabilité, on établit un modèle global de son comportement. La variabilité des
composants isolés est exprimée implicitement par la variabilité de l’ensemble du système. La
détermination du modèle inductif, bien que rigoureuse, conduit généralement à une formulation
mathématique très lourde. Cette lourdeur est due au fait que toutes les propriétés de chaque
composant n’ont pas une égale importance vis-à-vis des propriétés du système complet. Un
modèle déductif, correctement établi, conduira en général à une formulation mathématique plus
simple que celle d’un modèle inductif. Pour une précision fixée, l’accord entre le comportement
du modèle et le comportement observé du système se réalise par un processus d’amélioration
successive. Ces améliorations, déduites d’une interprétation des phénomènes observés, sont
arrêtées quand l’erreur introduite par la représentation mathématique est suffisamment faible.
L’avantage d’un tel procédé est de pouvoir partir d’une représentation mathématique très
grossière que l’on complique petit à petit, ce qui évite de considérer, explicitement, les propriétés
des composants qui ont un effet négligeable sur le comportement du système complet.
Lors de la modélisation on a besoin de cinq paramètres pour décrire le modèle de départ, qui
sont la vitesse et l’impédance acoustique permettant de déterminer les directions et les amplitudes
des ondes sismiques, et l’ondelette, sur lesquelles on ajoute les positions de source et récepteur et
finalement les conditions initiales et aux limites. Pour ce faire on a besoin d’un certain contrôle
de notre modèle géologique, pour les vitesses et les densités. Les données de diagraphie de puits
constituent le meilleur contrôle, car le log du puits fournit un contrôle vertical précis en fonction
de la profondeur jusqu’à chaque unité stratigraphique ; et le contrôle latéral sera obtenu à partir
de la section sismique, qui indique la direction de pendage. On peut aussi voir l’existence de
certaines formes structurales [Siraki, E, S 1997]. Les interfaces peuvent être décrites par un
système de coordonnées, ensuite on décide la configuration des sources – récepteurs, et l’espace
entre les traces à la sortie. Un autre point important est le type du signal utilisé, soit il sera mesuré
sur-le-champ soit on utilise un signal standard à 25Hz, zéro - phase, l’ondelette de Richer, etc. Il
y a d’autre possibilité d’estimation du signal, qui peut être déterminé à partir de la section
sismique à travers la corrélation. Finalement on arrive au choix d’une méthode de résolution.
Différentes méthodes de modélisation peuvent être choisies, on rencontre le plus couramment
deux sortes de méthodes :
Les méthodes de rayon qui décomposent le déplacement en contributions portées par tous les
trajets possibles entre la source et le récepteur.
Les méthodes des différences finies qui résolvent les équations de mouvement en chaque
nœud du milieu discrétisé, et à chaque itération de temps.

II-11 OBJECTIFS DE LA MODELISATION DIRECTE
On attend d’une telle simulation :
A. Qu’elle soit un véritable outil de recherche, et qu’elle permette une meilleure
compréhension des phénomènes de propagation.
B. Qu’elle constitue une aide à l’interprétateur géologue en testant la corrélation entre les
données de forage (vitesse et densité ), et la sismique enregistrée sur le terrain, et
qu’elle constitue un moyen de contrôle de l’interprétation de ces données.
24

CHAPITRE II

LE PROBLEME DIRECT

D’une façon générale, on applique le processus de modélisation soit pour valider le principe
d’une méthode avant l’application, soit pour vérifier la validité d’une hypothèse d’interprétation.
A cet effet, il est clair que pour pouvoir apporter des conclusions valables, l’outil de
simulation doit être fiable, fournir des aptitudes correctes et le modèle mathématique doit être
adapté à l’objectif recherché.
Par exemple pour examiner l’effet de la migration (pendage, déformation, réfraction
réfléchies, .etc. Telle que toutes les déformations peuvent être regroupées réunir entre elles pour
perturber complètement l’image – temps de la structure géologique. A travers un exemple de
modélisation Fig.2, 3,4, sur lesquelles, on est parti de la forme géologique d’un anticlinal faillé,
dont on suppose connues les vitesses d’intervalle (Fig.2), un programme a tracé les rayons
perpendiculaires à chaque dioptre (Fig.3). Après calcul des temps de trajet le long de chacun de
ces rayons, on les reporte sur la coupe – temps (Fig.4), bien que les diffractions n’aient pas été
prises en compte, ce qui aurait encore obscurcit le modèle [Henry,G. 1997]. Une telle section
pourrait évidemment conduire à une interprétation erronée si on ne procède pas auparavant à la
migration inverse. Un autre exemple c’est celui qui consiste à simuler les effets de la présence de
gaz dans un réservoir, Fig.5.a et Fig.5.b pour en déduire les critères de leur détection directe sur
la section sismique c’est l’exemple de la modélisation stratigraphique.

25

CHAPITRE II

LE PROBLEME DIRECT

26

CHAPITRE II

LE PROBLEME DIRECT

27

CHAPITRE II

LE PROBLEME DIRECT

II-12 METHODES DE LA MODELISATION DIRECTE
A)- MODELISATION A BASE D’EQUATION D’ONDE
La méthode de différences finies consiste à approcher les dérivées partielles par des
différences finies, ceci permet d’une part de remplacer une équation mathématique aux dérivées
partielles par un schéma numérique qui réalise une approximation de l’équation, et d’autre part la
résoudre numériquement. Cette méthode représente un outil efficace pour résoudre des équations
aux dérivées partielles, et elle est particulièrement intéressante dans le cas où la solution
analytique n’est pas encore connue [Lascaux, P Theodor, R 1994].
Les premières applications de cette technique aux calculs des sismogrammes synthétiques
remontent aux années 60 (Alternon et Kormfel 1968 ) et (Alternon et Karal 1968 ). Depuis cette
date de nombreuses applications à la sismique pétrolière ont été développées soit dans
l’hypothèse restreinte de l’équation d’onde (Claerbout 1971 ), soit à partir des équations
complètes de l’élasto-dynamique (Treitel 1976 et Marfuret 1976).
Un aperçu sur les formules mathématiques de la méthode différences finis est donné dans
l’ANNEXE B.

B) - LA TECHNIQUE DU TRACE DES RAYONS
La clé du succès dans la localisation des événements sismiques, et d’inversion des données
sismiques, dépend fortement de la précision dans la reconstruction de la trajectoire qui suit
l’onde sismique dans une géologie donnée [Asakawa,E. et Kawanaka,t 1993],[ Hanyga,A. et Pajchel,J
1995] [Mendechi, DR, A, J, ,1997].

Si le milieu est homogène le trajet des ondes est une ligne droite reliant la source et
récepteur, et le temps du parcours sera facilement calculé. Si le milieu est constitué par des
couches horizontales, le trajet suivi par l’énergie est estimé en utilisant l’invariance du paramètre
de rai.
La détermination du temps de trajet dans un milieu hétérogène est un problème relativement
compliqué, c’est de plus, la partie la plus coûteuse de l’inversion. Généralement il y a trois
méthodes pour résoudre ce problème[Fara,Véronique, 1987]:
1. Shoting ; Connaissant un rai du milieu, on peut perturber ces conditions initiales pour
trouver le rai désiré.
2. Méthode de continuation: Connaissant le rai dans un milieu plus simple dit de
référence, on peut calculer les rais dans le milieu qui nous intéresse en considérant ce
milieu comme étant égale au milieu de référence plus une perturbation.
3. Ray bending : Les deux points sont reliés par une courbe qui sera déformée de façon
continue jusqu’à l’obtention d’un rai qui satisfait le critère du temps minimum. La
méthode est connue aussi par le nom de tracé de rayon point-à-point.

CONCLUSION
La modélisation est une phase naturelle dans l’avancement de la compréhension des
phénomènes réels. Devant la complexité des observations faites dans un premier temps dans un
certain désordre, les scientifiques ont essayé de quantifier des phénomènes simples, ce fut
l’époque des lois des formes mathématiques de modélisation. En effet cette dernière est un
28

CHAPITRE II

LE PROBLEME DIRECT

véritable jeu de construction qui décompose les phénomènes en éléments simples et en refait la
synthèse. La complexité ainsi diminuée, les comportements naturels sont ramenés à une
combinaison d’un petit nombre de comportements simples, la description revenant à une échelle
plus simple
L’interprétation est l’art de sélectionner le modèle le plus approprié, en fonction des données
dont on dispose pour aboutir aux résultats les plus proches de la réalité. Un modèle
d’interprétation est une combinaison de différents sous - modèle se rattachant aux domaines
suivants :
ο La réponse de l’outils ou, en d’autres termes, la relation entre la mesure réelle faite par
chaque outil et sa conversion en paramètres géophysique.
ο L’assemblage géologique que l’on peut subdiviser en : minéralogie, texture, structure,
etc.
ο La pétrophysique qui découle du domaine précédent et permet de préciser les
paramètres nécessaires à l’interprétation quantitative.
ο Les mathématiques : choix des équations reliant les paramètres du signal sismique aux
paramètres recherchés par rapport au choix des contraintes et des niveaux
d’incertitudes sur les mesures.

29

CHAPITRE III
INVERSE

LE PROBLEME

III-1 PROBLEME INVERSE
III-1-1 DEFINITION
L’inversion est une technique mathématique visant à estimer les caractéristiques d’un
système, connaissant sa réponse à une excitation donnée. L’inversion des données sismiques
cherche à résoudre le problème fondamental de la prospection, qui est la détermination de la
répartition spatiale des propriétés des roches à partir des observations faites à la surface. Dans
le cas de la prospection sismique, on peut espérer obtenir une description des propriétés des
roches qui régisse la propagation des ondes élastiques [Mari, J. L 1994].
La technique d’inversion consiste à chercher le jeu de paramètres d’un modèle
représentatif du terrain qui minimise une certaine fonction, dite fonction coût, cette
optimisation de modèle peut se faire de façon itérative. On se donne d’abord un premier
schéma de répartition des grandeurs à déterminer, on calcule quelle serait la réponse sismique
d’un tel terrain, c’est la résolution du problème direct. Ensuite, on s’efforce de calculer les
corrections à apporter au premier modèle pour obtenir un meilleur ; c’est-à-dire qui donne à la
fonction coût une valeur inférieure, en calculant la réponse et on continue [Tarantola, A
1984a], [Patrick N et al 1996].
Les programmes d’inversion peuvent être globaux ou partiels, suivant qu’ils prennent en
compte toutes les informations sismiques enregistrées ou seulement une partie. Par exemple, à
partir des traces on obtient un profil d’impédance acoustique par un programme d’inversion
globale, par contre à partir du temps de parcours extraits des traces on peut obtenir une
répartition de vitesse dans une série de cellules par inversion partielle (tomographie de
vitesse). Une autre distinction est faite selon que le programme est itératif ou non. Les
programmes d’inversion non itératifs font appel à un procédé mathématique quantifié de
fonction de transfert et la possibilité de définir une telle fonction nécessite beaucoup
d’approximation [Mari, J, L et al 1998], [Tarantola, A 1987]. Les programmes itératifs
permettent de mieux approcher le modèle à la réalité.

III-1-2 APERCU HISTORIQUE SUR LA METHODE
Ces dernières années, plusieurs méthodes d'inversion à 1D et à 2D ont été échafaudées.
Amurdsen et Ursin (1991) ont décrit une procédure d'inversion pour obtenir les vitesses, les
densités et les épaisseurs des couches à partir des sismogrammes de sismique réflexion multioffsets, générés par une excitation d'un point source dans un milieu acoustique à stratification
horizontale. Par décomposition du sismogramme de référence en ondes sphériques dans le
domaine de nombre d'onde. Pan et al (1988) ont inversé les données sismiques dans le
domaine (τ, p) pour déterminer la vitesse et la densité en fonction de la profondeur. Leur
modèle est constitué d'un grand nombre de couches homogènes. Ils ont généré les données de
référence et les inversé directement dans le domaine (τ, p) [Shang, G et al 1994] [Wang et al
1996].
Komendi et Dietrich (1991) ont proposé une méthode pour déterminer les paramètres
élastiques du milieu à stratification horizontale à partir de la réflectivité des ondes–plans.
Leur méthode utilise la propriété de la convergence rapide de l'algorithme du gradient
conjugué. Bleistein et al 1987 ont traité une méthode d'inversion multidimensionnelle pour
les données prestack et poststack à partir d'un seul profil, cette dernière est basée sur la
théorie d'inversion linéaire, ils ont supposé que la vitesse est approximée à partir des données
des puits (log sonic) et par perturbations successives jusqu’à l’obtention d’un modèle optimal.

30

CHAPITRE III
INVERSE

LE PROBLEME

Une méthode d'inversion de vitesse par la technique de DSO (Différentiel Senblance
Optimisation) a été élaborée par Symes et Carazzone 1991. Ils ont utilisé la technique de DSO
pour convertir le problème d'inversion de vitesse en un problème d'optimisation, avec une
fonction objective convexe. Par conséquent, le problème de la difficulté de la réalisation de la
convergence, lié à la non-convexité de la fonction objective, a été surmonté par une stratégie
basée sur la séparation des paramètres. Ces derniers peuvent être classés en paramètres de
contrôle (la composante à grande longueur d’onde de vitesse) et en paramètre d’état (la série
de réfletivité). La minimisation se réalise en deux étapes, la première consiste à linéairiser
par rapport à la variable d’état, et la deuxième, à ajuster des résidus par rapport à la variable
de contrôle.

III-1-3 DESCRIPTION DU PROCESSUS D'INVERSION
Lorsqu’on étudie un problème d’inversion, il est indispensable de disposer d’une
représentation réaliste du comportement du modèle géologique, pour lequel se pose le
problème. Ce modèle doit donner une description correcte du comportement qualitatif de la
réalité géologique considérée. Quand un critère de performance est choisi pour l’optimisation,
celui-ci doit avoir un sens pratique.
L’établissement d’un modèle mathématique correct et d’un critère analytique de
performance implique deux conditions importantes à savoir :
1. Une compréhension profonde de la technologie de calcul numérique et du comportement
du modèle géologique.
2. Une bonne connaissance des propriétés des différents types d’équations qui peuvent servir
de modèle de la réalité géologique.
D’une façon générale l’inversion comporte les phases suivantes :
♦ On établit un modèle géologique initial, sous forme d’une répartition des paramètres
choisis pour l'inversion, en temps de parcours ou en profondeur. Bien que la méthode
permette de partir d'un modèle aussi éloigné que l'on veut de la solution recherchée, sur
lequel on intègre toutes les informations disponibles sur la région d'étude. L'expérience a
montré que l'on avait avantage à initier le processus d’inversion par le modèle le plus
vraisemblable, fourni par le traitement classique ou par une première phase d'inversion
simplifiée, le tout enrichi par des informations géologiques disponibles. Le modèle initial
est construit en utilisant les informations de diagraphie aux puits, et les pointés des
horizons sismiques permettent de définir les limites des différentes couches du modèle
géologique et de construire un modèle stratigraphique. Ce modèle est construit à partir de
la section sismique après une estimation optimale de l’ondelette et une déconvolution
stratigraphique. A l’intérieur de chaque couche, les valeurs de vitesse et de densité sont
introduites aux puits en utilisant les diagraphies, puis interpolées entre puits. Les
épaisseurs sont calculées à l’aide des vitesses diagraphiques et du temps de pointé
sismique des toits et des murs de la couche [Siraki, E, S 1997].
♦ On estime le signal de départ à l'aide des techniques classiques de recherche du signal
traités dans le chapitre précédent.
♦ Le calcul du sismogramme synthétique ou le modèle physique, est une opération qui se
fait, selon le cas, par convolution, par tracé du rayon ou bien par équation d'onde.
♦ Dans les problèmes d’inversion, l’indice de performance joue un rôle de pont entre
l’énoncé général de l’objectif et le traitement mathématique des problèmes. Lors de la
formulation d’un problème d’optimisation, il est indispensable de différencier l’objectif,
de l’indice de performance.

31

CHAPITRE III
INVERSE

LE PROBLEME

L’objectif est un énoncé général de ce qui doit être optimisé, et des conditions dans
lesquelles l’optimisation doit être effectuée. Ces dernières comprennent le niveau de la
solution désirée, la description du système et plus particulièrement les limitations et les
contraintes imposées au système, d’un point de vue industriel. Elles doivent aussi
comprendre les moyens pratiques de calcul numérique des résultats et la possibilité de leur
exploitation. Par contre, l’indice de performance est une grandeur mathématique précise
permettant des calculs et des comparaisons numériques. Diverses appellations sont
utilisées dans la littérature technique : critère, fonction coût, fonction objective, etc.
♦ Etablissement de l'écart entre sismogramme observé et celui calculé. Ce dernier, est alors
intégré dans une fonction coût, fonctionnelle linéaire ou non de l'écart et éventuellement
d'autres critères tant géométriques que géologiques.
♦ Recherche de la direction du gradient de décroissance permettant de minimiser au mieux
la fonction coût. Une fois la direction déterminée, on modifie les paramètres d'entrée et on
fixe les nouvelles conditions de départ pour l'itération suivante.
Dans cette phase d'optimisation, on recalcule un nouveau sismogramme synthétique et
une nouvelle fonction coût. On compare la valeur de cette dernière à un seuil fixé a priori,
si elle est nettement supérieure, on réalise une nouvelle itération, si par contre elle est du
même ordre ou inférieure, le processus s’arrête et la répartition sera considérée comme
optimale.
Connaissance à priori

Critère

Connaissance à priori

Modèle initial

Comparaison quantitative

Modifier les paramètres

Fonction objective

Minimisation

Validation

Utilisation

ig.01 Principe de la modélisation inverse.

32

Données

CHAPITRE III
INVERSE

LE PROBLEME

III-1-4 FORMULATION MATHEMATIQUE DU PROBLEME
A fin d’étudier le problème d’inversion, il est impératif de commencer par l'étude de la
relation entre les paramètres du milieu et les données sismiques. Dans cette optique, on
considère l'équation de propagation des ondes acoustiques à deux dimensions et on caractérise
le milieu par la distribution des paramètres I(x, z) (impédance acoustique ) et C(x, z) (vitesse
de propagation ). Le champ de pression P(x, z, t) généré par la source S est solution de
l'équation des ondes suivante [Jiang, L. B. 1989] :
⎧ 1 ∂ 2P
C
− d iv ( g r a d ( P )) = S

2
I
⎪ I .C ∂t
⎪ P ( x , z = 0, t ) = 0

⎪ P ( x , z, t = 0 ) = 0
⎪ ∂P
( x , z ,0 ) = 0

⎩ ∂t
l'opérateur de modélisation (problème direct) est :

(1 - 1 )

M:
(I, C) → P(x, z, t) pour x∈Xg et t∈[0, π].
Toutes ces grandeurs caractérisent le comportement d’un milieu quand on lui applique une
certaine contrainte. Ces grandeurs dépendent de plusieurs facteurs plus ou moins liés qui sont
[Cordier, J. P 1990] [Henry, G. 1997] [Siraki, E, S 1997] :
• La lithologie (composition minéralogique, texture ).
• La porosité et la nature des fluides contenus dans les roches.
• L’état de fracturation de la roche.
• La profondeur d’enfouissement et la pression différentielle de la formation considérée.
Pour la plus part des roches, un assez large éventail de vitesses s’applique et le facteur
principal dont dépend la vitesse est la porosité. Dans un bassin sédimentaire, la porosité des
roches détritiques tend à diminuer avec la profondeur d’enfouissement à cause de la
compression sous la pression de surcharge. Alors, il est souvent difficile de distinguer par
exemple grès et argile dures sur la base de leur vitesse de tronche. Donc pour une même
lithologie, les valeurs de vitesse sont généralement très dispersées [Cordier, J. P 1990].
Les vitesses apparaissent tout d’abord dans deux domaines bien distincts : les mesures
dans les puits et le traitement sismique. Les mesures en discontinu dans les puits par
l’opération de carottage sismique, elles servent à caler la coupe sismique aux données de
forage et à transformer la coupe temps en coupe profondeur.
Pour les géophysiciens, les mesures continues de vitesses et de densité sont utilisées pour
construire des films synthétiques, sort de modèle parfait de la trace sismique, tenant compte
de la lithologie détaillée rencontrée en forage. Ainsi, le film synthétique devient un outil
commun en géologie et géophysique [Boyer, S., Mari, J. L. 1994].
Mais comme les données sismiques sont bruitées, il est classique [Banberger et al 1982
Tarantola 1984 ] de formuler le problème inverse comme un problème de moindres carrées qui
prend la forme suivante :

33

CHAPITRE III
INVERSE

LE PROBLEME

⎧ TROUVER LE MODELE (C, I ) QUI MINIMISE LA FONCTIONNELLE

2
ob
⎪ J ( C , I ) = ∑ Ms ( C , I ) − P s
s ∈Rs

⎨ avec

T

2
2
⎪ Ps = ∑ ∫ Ps ( Xg , Z 0 , t ) dt
xg ∈ Xg 0


(1-2)

Une telle approche doit donner a priori la structure du sous-sol avec des informations
quantitatives des paramètres du milieu, vitesse et impédance acoustique, dont le
sismogramme associé est proche aux données observées [Jiang, L.B.F 1989].
Les techniques d’inversion des données synthétiques et des données réelles ont été
essayées par Kolb, Collinort, Lavilly 1986, Ganthier, Virieux et Tarantola 1986, Pica 1988,
qui ont rencontré des difficultés importantes lorsque le problème est fortement non linéaire.
Les expériences numériques montrent l'efficacité de l'inversion linéarisée,
plus
précisément, elle donne une identification quantitative des hétérogénéités lorsque la vitesse
du milieu de référence approxime précisément la vitesse du milieu réel.

III-1-5 PROBLEME DIRECT
En se basant sur l'équation d'onde acoustique, une relation entre les paramètres du milieu
et le champ observé peut être établie [Jiang, L.B.F 1989], [ Tarantola, A 1984a] [ Tarantola, A
1984b] :

⎡ 1 ∂2

1

div
(
grad

⎥ P(r , t ) = s(r , t )
2
ρ (r )
⎣ K(r ) ∂t


(1- 3)

Où K(r) est le module d'incompressibilité, ρ(r) la densité et s(r, t) la source d'onde
acoustique.
En introduisant la fonction de Green g(r, t, r', t'), on aboutit à la formule suivante :

⎛ 1 ∂2
1
⎜⎜
(1-4)
grad ⎟⎟ g (r , t ; r ' , t ' ) = δ (r − r ' )δ (t − t ' )
− div(
2
ρ (r )

⎝ K (r ) ∂t
où δ désigne la distribution de Dirac.
Pour une notation compacte, la solution de cette équation par rapport aux paramètres qui
figurent dans l’équation (1-4) K, ρ, s peut être exprimée par :

P=f(K, ρ, s)
avec f est un opérateur non - linéaire.
Si la fonction de Green g(r, t, r', t') pour r' et t' fixes satisfait les conditions initiales et aux
limites, la solution de l'équation (1-4) est donnée par la relation suivante [Tarantola, A 1984a] [
Tarantola, A 1984b] [ Tarantola, A 1987] :

P(r,t)= ∫ dr '∫ dt'g(r,t;r',t')s(r',t')

(1-5)

Tant que K et ρ sont indépendants du temps, la fonction de Green sera invariante par
translation temporelle, autrement dit :
g(r, t;r’, t’)=g(r, t-t’;r’, 0)=g(r, 0;r’, t’-t’)
(1-6)
34

CHAPITRE III
INVERSE

LE PROBLEME

L’équation (1-5) peut être réécrite sous la forme suivante:

P(r,t)= ∫ dr'g(r,t;r',0)*s(r',t)

(1-7)

L’équation (1-7) représente la solution du problème direct, dont l’avantage est de représenter
un système décrit par son entrée et sa sortie (boite noir), sans se référer à aucun algorithme
numérique (différences finies ou tracé de rayons) [Tarantola, A 1984a] [Tarantola, A 1987].
Dans le problème du traitement des données sismiques, on considère que la source peut
être localisée en un point. Si on suppose qu’elle est isotropique, elle peut être décrite par une
simple fonction du temps S(t), la description de la source par cette dernière est la suivante :

s(r, t)=δ(r-rs)S(t)
où rs, désigne la position de la source.
En considérant P(r, t;rs), le champ de pression généré par la source localisée en r=rs,
l’équation (1-7) devient :
P(r, t;rs)=g(r, t;rs, 0)*S(t)
(1-8)
L’équation de modélisation sera réécrite sous la forme suivante :

P=f(K, ρ,S)

(1-9)

Où la fonction de la source s(r, t) est remplacée par la fonction du temps S(t).
Le modèle mathématique utilisé en géophysique, consiste à supposer que le modèle de
paramètres acoustiques pour z>0 est homogène. Par exemple, en sismique marine, ceci
conduit à supposer qu’on a un océan infini pour z>0. Ce modèle est raisonnable puisqu’on
s’affranchit des interactions de la surface libre par un traitement approprié des données
sismiques (le mut).
La linéarisation est obtenue en choisissant un milieu de référence, représenté par Ko et
ρo «lisse», et un milieu de perturbation δK et δρ vérifiant les relations suivantes [Tarantola, A
1984a] : [ Jiang, L.B.F 1989][ Duquet, B. 1996]
K(r)=Ko+δK(r)
(1-10)

ρ(r)= ρo +δρ(r)
Avec comme hypothèses : |δK(r) |<<Ko et

|δρ(r) |<<ρo

δP(r, t, rs) définit la différence entre le champ du milieu perturbé et celui homogène P0. Son
expression est :

P(r, t, rs)=Po(r, t, rs) + δP(r, t, rs)

(1-11)

D'après l'équation (1-3) on a [ Tarantola, A 1984a] : [ Jiang, L.B.F 1989][ Duquet, B. 1996]



1
1
∂2
− div(
grad ⎥( P0 (r, t ) + δP(r, t )) = δ (r − rs )[ S (t ) + δS (t )]

2
( ρ 0 (r ) + δρ(r ))
⎣ ( K0 (r ) + δK(r )) ∂t

(1-12)

En utilisant la propriété de la formule suivante :

35

CHAPITRE III
INVERSE

LE PROBLEME

δh(r )
1
1
=
− 2
+ o(δh 2 )
h(r ) + δh(r ) h(r ) h (r )

(1-13)

L‘équation (1-12), aura pour solution :
⎧ 1 ∂2

1
grad ]⎬δp (r , t ; rs ) = ∆S (r , t ; rs )
− div[

2
ρ( r )
⎩ K (r ) ∂t


(1-14)

où ∆S est la source secondaire qui vérifie :
∆S (r , t ; rs ) = δ (r − rs )δS (t ) +

⎡ δρ (r )

(
,
;
)

(
,
;
)
r
t
r
div
gradp
r
t
r
s
s


2
K 2 (r ) ∂ 2 t
⎣ ρ (r )

2
+ o(δK, δρ , δS)

δK ( r ) ∂ 2 p

(1-15)

Po peut s’interpréter comme étant le champ primaire, généré par la source s se
propageant dans le milieu de référence K0 et ρo . Tandis que δP s’interprète comme un
champ secondaire généré par ∆s qui se propage également dans le milieu de référence K0
et ρo. Cette source décrit l’interaction de l’onde primaire P0 avec le milieu de perturbation
δΚ etδρ [ Jiang, L.B.F 1989], [Tarantola, A 1984a] [Tarantola, A 1987][ Duquet, B. 1996].

III-1-6 PROBLEME INVERSE
La solution du problème direct a été donnée par la formule P=f(K, ρ, S).
⎛K ⎞
⎛ K0 ⎞
⎜ ⎟
⎜ ⎟
En posant m = ⎜ ρ ⎟ et m0 = ⎜ ρ 0 ⎟ la formule précédente devient P=f(m).
⎜S⎟
⎜S ⎟
⎝ ⎠
⎝ 0⎠

Le modèle mo a priori ne donnera pas des valeurs similaires à celles du champ observé
Pob. Par conséquent, on aura en général :

Pob ≠ f ( m o )
Le problème de l’inversion non linéaire devient un problème de la recherche de P et m
satisfaisant l’équation (1-9) d’une part, et minimisant les distances entre (P, m) et (Po, mo)
d’autre part.
En introduisant la définition précise de la distance, et en prenant la distance associée à la
norme L2 défini par la formule suivante [Jiang, L.B.F 1989] [Tarantola, A 1984a][ Tarantola, A
1984b][ Tarantola, A 1987] [Shang, G et al 1994]:

|| (P, m) ||2 =||P||2 +|| m||2

(1-16)

La résolution du problème inverse, consiste à répondre à la question suivante :
Peut-on estimer la répartition des perturbations de δK et δρ dans la zone traversée par ce
champ, à partir du champ observé δPob ?
Trois cas de figures peuvent se présenter : le problème peut ne pas posséder de solution,
Il peut avoir une solution unique ou bien posséder une infinité de solutions.
Cette ambiguïté peut être levée en utilisant des informations a priori
admissible de la terre. Ceci permet d’avoir une solution optimale.
36

d’un modèle

CHAPITRE III
INVERSE

LE PROBLEME

III-1-7 LES DONNEES DU PROBLEME INVERSE


INFORMATIONS DEDUITES DE LA MODELISATION (problème direct)

La résolution du problème direct, implique la prédiction des données à partir d’un modèle
supposé comme étant un cas idéal. Mais en pratique, les données prédites ne sont pas
identiques aux données observées. Ceci est dû d’une part, à l’incertitude expérimentale et
d’autre part, à l’erreur de modélisation. Il est à noter que la combinaison de ces deux sources
d’erreur induit une erreur de magnitude plus ou moins importante. Par conséquent, la
résolution du problème inverse, nécessite l’analyse de l’influence de ces erreurs sur la
solution finale.


INFORMATIONS DEDUITES DE MESURES

Pour obtenir des informations sur les paramètres du système, on réalise des observations
ou cours d’une expérience physique. Les données de mesure sont caractérisées d’incertitudes
expérimentales et entachées des bruits de natures différentes.
Lors de la résolution du problème inverse, il est important de prendre en considération
toutes ces erreurs qui doivent être éliminées, moyennant des procédures de filtrage
appropriées.


INFORMATIONS A PRIORI

On appelle information a priori, tout type d’information, que l’on peut obtenir
indépendamment des données de mesure. Deux types d’information a priori utilisés pour
améliorer la résolution du problème inverse, seront examinés par la suite.
La résolution du problème inverse est basée sur la combinaison de ces trois types
d’information suscités : information de mesure, de modélisation et information à priori.
[Jiang, L. B. F 1989] [Tarantola, A 1984a][Tarantola, A 1984b][Tarantola, A 1987][Shang, G et al
1994].

III-1-8 APPROCHE PROBABILISTE DE L’INFORMATION A PPRIORI
Pour la résolution du problème inverse nous disposons des informations sismiques et des
informations a priori sur le modèle de perturbation δm. Le modèle qui explique au mieux
les données dépend de la confiance (ou de l’incertitude) associée à ces informations, ces
incertitudes sont les données du problème inverse.
Tarantola. A a proposé en 1987, une modélisation par des variables aléatoires gaussiennes
de ces incertitudes, en considérant les informations comme indépendantes les unes des
autres. Par l’utilisation de l’information de puits et les statistiques on peut établir les
répartitions des paramètres du modèle de référence K0 et ρ0 avec leurs covariances Cρρ, CKK
ces matrices de covariances représentent les informations a priori qui seront utilisées dans la
résolution du problème inverse.
Comme exemple de l’information a priori, [Shang, G et al 1994] ][Duquet, B. 1996] proposent :
Ko(r)=Ko=const,
ρo(r)=ρo=const,
So(t)=une estimation de l’impulsion de la source

37

CHAPITRE III
INVERSE

LE PROBLEME



2 exp − 1 ⎡ (x − x') 2 + (y − y') 2 + (z − z') 2 ⎤
CKK (r,r')=σ KK

⎨ 2⎢
2
2

L
L
H
V
⎦⎭
⎩ ⎣


2 exp − 1 ⎡ (x − x') 2 + (y − y') 2 + (z − z') 2 ⎤
Cρρ (r,r')=σ ρρ
⎨ 2⎢
2
2

LH
LV ⎦ ⎬⎭
⎩ ⎣

(1-17)

2 exp⎧− 1 (t −t') 2 ⎫
CSS (r,r')=σ SS
⎨ 2 T2 ⎬
S



Cp (rg, t; rs/r’g, t’; v’s) = σ2gsδgg’δss’

⎛ C KK

C m = ⎜ C ρK
⎜C
⎝ SK

C Kρ
C ρρ
C Sρ

C KS ⎞

C ρS ⎟
C SS ⎟⎠

σKK σSS
σρρ représentent les déviations standards par rapport aux paramètres du
modèle de référence, tandis que σgs représente l’erreur expérimentale estimée sur chaque trace
pour la position de géophone g et la source s.
Le problème inverse est définit comme suit :
Etant donnée un modèle de référence Ko et ρο, une ondelette sismique s et un cube de
données sismiques observées (Pbs). La recherche d’un cube de perturbations de δK(r) et
δρ(r) qui s’ajuste sur les données observées constitue le problème inverse [Tarantola, A
1987].
Donc, le problème revient à rechercher la solution K(r) et ρ(r) minimisant la norme L2 de
l’espace D*M dans lequel D et M décrivent l’espace de données et l’espace de paramètres
respectivement. Dans ce cas, le problème inverse peut être formuler comme suit :
Chercher K(r) et ρ(r) de telle sort à minimiser les distances suivantes :

E(m)= P − f (m) − m−m0
ab

Les normes

D

2

2

D

M

et

M

(1-18)

peuvent être décrites à l’aide de deux matrices symétriques

définies positives, appelées en général, matrice de covariance [Jiang, L. B. F 1989] [Tarantola,
A 1984a][Tarantola, A 1984b][Tarantola, A 1987][Shang, G et al 1994]. Par conséquent, la
fonction objective s’écrit comme suit :


2J ( m ) = ⎜ P −
⎝ ob


f ( m )⎟


t

−1 ⎛

Cp

⎜P −
⎝ ob


f ( m )⎟ +


(

) (
t

m−m
0

−1
Cm m − m
0

)

(1 - 19)

Cm représente l’a priori sur le modèle, tandis que Cp représente la matrice de covariance
sur l’erreur expérimentale, de même elle représente la corrélation entre les incertitudes sur les
données.
Ainsi, nous avons choisi de minimiser la fonction des moindres carrées pondérée par les
matrices de covariance de l’erreur expérimentale [Fara, Véronique, 1987] [Tarantola, A 1987].

38

CHAPITRE III
INVERSE

LE PROBLEME

Cette pondération renforce la contribution des mesures précises et minimise la prise en compte
des mesures moins précises.
Pour résoudre le problème de la minimisation de la fonction J, on introduit l’opérateur F
comme la dérivée de la fonction f par rapport à m :
f(m+δm)=f(m) +Fδm +o( δm )
2

Le problème de minimisation d’une fonctionnelle se résoud le plus souvent par une
méthode de décente. On détermine, pour une approximation donnée, un sens de décroissance
de la fonctionnelle J en se déplaçant dans ce sens. Si le pas du déplacement n’est pas très
grand, la valeur de la fonctionnelle diminue nécessairement.
Comme la fonction coût associée au problème inverse étant quadratique, l’algorithme de
minimisation choisi est le gradient conjugué. La différentiation de J(m) par rapport à m donne
la fonction du gradient de celle-ci [Tarantola, A 1984a] ;

− grad(J)=Cm F *C p−1[Pob − f(m)]+(m−mo)

(1-20)

avec F* est la transposée de F.
Au minimum de la fonction J, le gradient est nul et la solution de notre problème au sens
des moindres carrées doit vérifier la relation suivante :

m − m o = C m F * C −p 1 [Pob − f (m)]

(1-21)

Cette équation montre que la différence m-mo appartient à la classe des images de Cm.
En ajoutant le terme (I + C m F * C −1
p F) aux deux parties de l’équation (1-21) et après
arrangement on obtient :

(I + C m F * C −p1 F)( m − m o ) = C m F * C −p1 [ Pob − f ( m) + F( m − m o )]

(1-22)

Tant que l’opérateur de covariance est défini positif, l’opérateur C m F * C −1
p F est aussi
défini positif. Par conséquent, l’opérateur (I+ C m F * C −1
p F ) est régulier, alors de l’équation
(1-22) on aura [Tarantola, A 1984a][Tarantola, A 1987] :

(m − mo ) = (I + Cm F * C−p1F) −1 Cm F * C−p1[Pob − f (m) + F(m − mo )]

(1-23)

Ainsi, les deux équations (1-22) et (1-23) sont équivalantes et peuvent être résolues par
l’algorithme à point fixé suivant [Shang, G et al 1994] :

mk+1 = m0 + (I + CmFk*Cp−1Fk )−1CmFk*Cp−1[Pob − f (mk ) + Fk (mk − mo )]

(1-24)

où Fk est la valeur de F au point mk.
Pour le problème linéaire [f(m)=F.m], cet algorithme converge en une seule itération :

m = mo + (I + CmF * C−p1F) −1 CmF * C−p1[Pob − F. m]

(1-25)

Cet algorithme est connu sous le nom de l’algorithme de l’inversion totale (Tarantola et
de forme W(r, r’), lorsqu’on fait
velette). L’opérateur W=(I+ C m F * C −1
p F ) à un noyau
discrètiser ce système. Ce noyau se transforme en une matrice et la solution de ce système
sera obtenue en utilisant l’inverse de cette dernière. Actuellement, il n’est pas possible de le
réaliser par les ordinateurs, la raison est que pour un problème de dimensions classiques, le
nombre d’inconnus est de plusieurs millions. Par conséquent, le coût de résolution du
39

CHAPITRE III
INVERSE

LE PROBLEME

problème direct est par ailleurs non négligeable, d’où la nécessité du choix et d’implantation
des algorithmes numériques, notamment ceux de l’optimisation.
A partir de l’équation (1-19), la détermination du minimum de J revient à le rechercher
dans la direction du gradient [Tarantola, A 1984a][Tarantola, A 1984b] :

mk+1=mk-α(grad(J))k

(1-26)

Où α est une constante arbitraire ayant une petite valeur, assurant la convergence de
l’algorithme. De l’équation (1-22), il découle [Shang, G et al 1994] :

(

m k +1 = m k + α C m Fk* C −p1 [ Pob − f ( m)] + ( m k − m o )

)

(1-27)

On peut voir que l’algorithme du gradient est similaire à l’équation de l’inversion totale
-1
(1-25), où l’opérateur (I+ C m F * C −1
p F ) est remplacé par l’opérateur diagonal : αI.
Les équations de (1-25) à (1-27) sont des cas particuliers de l’équation générale suivante :

(

m k +1 = m k + W C m Fk* C −p 1 [ Pob − f ( m)] − ( m k − m o )

)

(1-28)

Où l’opérateur W est un opérateur régulier, arbitraire et choisi proche de (I+ C m F * C −1
p F)
pour suivre la convergence :
-1
W ≈ (I+ C m F * C −1
p F)

(1-29)

Le choix de W revêt un intérêt particulier :
™ Si W=αI l’équation (1-28) donne l’algorithme du gradient.
-1
™ Si W= (I+ C m F * C −1
l’équation (1-27) donne l’algorithme de l’inverse total.
p F)
A noter que, le nombre d’itération dépendra du choix de W.
L’algorithme converge en une seule itération pour l’équation (1-28) et après un grand
nombre d’itérations pour l’équation (1-27).
Pour la première itération l’équation (1-27) devient :

m1=m0+α δm1
δm1= C m F0*C −p1[ Pob − f ( mo )]

et

(1-30)

Tel que δm1 est obtenue par la procédure suivante.
La valeur numérique de α sera choisie de telle manière à ce que la déviation m1-m0 soit
inférieure à la déviation standard a priori (en Cm).
En utilisant la théorie d’optimisation, une valeur optimale approximée de α est donnée à
l’itération k par [Tarantola, A 1984a] :

αk =

1


λ
⎜ I + λ k C −p1 k C −m1 γ k ⎟
γk



(1-31)

avec :

λk=Fkγk

et

γk=(grad(J))k

40

CHAPITRE III
INVERSE

LE PROBLEME

La forme explicite au problème, est donnée par l’introduction des fonctions K, ρ et S qui
sont définies par :
f(K, +δK, ρ+dρ, S+δS)=f(K, ρ, S)+UδK+Vδρ+TδS+o(δK, δρ, δS)2

(1-32)

D’après l’équation (1-9) il est claire que l’opérateur F peut être écrit sous la forme
suivante :
F=(U, V, T)
oû U, V et T sont les dérivées partielles de P par rapport à K, ρ et S respectivement.
La relation de récurrence peut être donnée comme suit [Tarantola, A 1984a] :
⎧⎛ C KK C Kρ C KS ⎞⎛ δK~ n ⎞ ⎛ K n − K 0 ⎞⎫
⎛ K n +1 ⎞ ⎛ K n ⎞
⎟⎜ ~ ⎟ ⎜

⎟ ⎜ ⎟
⎟⎪
⎪⎜
=
C
C
C
ρ
ρ
α
+

⎜ n +1 ⎟ ⎜ n ⎟
⎨ ρK
ρρ
ρS ⎟⎜ δρ n ⎟ − ⎜ ρ n − ρ 0 ⎟ ⎬
⎜ ~ ⎟
⎜S ⎟ ⎜S ⎟
⎪⎜ C
C Sρ C SS ⎟⎠⎜⎝ δS n ⎟⎠ ⎜⎝ S n − S 0 ⎟⎠⎪
⎝ n +1 ⎠ ⎝ n ⎠
⎩⎝ SK


(1-33)

~
δK n = U n*δ ~p n
δ ρ~ n = V n* δ ~p n

(1-34)

~
δS n = Tn*δ ~p n

δ ~p n = C p−1 [ Pob − f ( K n , ρ n , S n )]
Dans le cas particulier, où les informations a priori sont indépendantes les unes des autres
(CKρ≡0, CSρ≡0, CTS≡0) l’équation ( 1−33) se simplifie comme suit :

~
K n +1 = K n + α [ C KK δ K n − ( K n − K 0 )

ρ n + 1 = ρ n + α [ C ρρ δ ρ~ n − ( ρ n − ρ 0 )

(1-35)

~
S n +1 = S n + α [ C SS δ S n − ( S n − S 0 )
Pour donner une interprétation physique aux étapes de l’algorithme,
certains stades est nécessaire.
~
Le premier est le calcul de δP , par la formule suivante :

δ ~p n = C p−1 [ Pob − f ( K n , ρ n , S n )]

le passage par

(1-36)

~
Le champ δP peut être interprété comme ‘’ le résidu pondéré ‘’. Son calcul implique la
résolution du problème direct, pour chaque point de tir, afin d‘avoir les données de néme
modèle. Pn=f(Kn, ρn, Sn) [Tarantola, A 1984a], [Tarantola, A 1987].
En prenant Cp comme exemple de (1-17) on a :

Pob ( rg , t ; rs ) − Pn ( rg , t ; rs )
δ ~p n =
σ gs2

(1-37)

41

CHAPITRE III
INVERSE

LE PROBLEME

Pour le calcule de δP on introduit les opérateurs U, V et T qui sont définis par les
équations suivantes :

δP=UδK+ Vδρ+TδS+o(UδK, Vδρ,TδS)2

(1-38)

tel que :

δP=f(K+δK, ρ +δρ+S+δS)-f(K, ρ,S)

(1-39)

En introduisant les noyaux de ces opérateurs, les équations (1-1) deviennent :

δp(rg , t , rs ) = ∫ drU (rg , t; rs / r )δK (r ) + ∫ drV (rg , t; rs / r )δρ(r )
+ ∫ dt 'T (rg , t; rs / t ' )δS (r ) + o( δK,δρ,δS)2

(1-40)

Pour interpréter cette formule, on doit effectuer deux étapes :
1. Le calcul de p n' (r , t ) = ∫ dr ' g (r , t ; r ' ,0) * δs (r ' , t , rs )

~

δs(r , t , rs ) = ∑ δ (r − rg )δP (rg , t; rs )

Et

(1-41)

Pour une position rs donnée, le champ Pn’(r, t, rs) défini par l’équation (1-41) correspond
à la propagation de la source δs(r, t, rs). L’équation (1-41) montre que la source δs(r, t, rs) est
donnée pour la position rs estimée par la composition des sources élémentaires de chaque
position de géophone rg, qui est générée par la source temporelle (Le résidu pondéré de champ
calculé mois celui observé) dans ce point. Le résidu représente une partie du signal qui n’est
pas expliquée par le modèle actuel. Donnant le champ observé en un point Pn’(r, t, rs), qui est
en quelque sorte un champ diffracté perdu, ce champ est directement lié à la perturbation du
modèle de paramètres.
2. La corrélation des ondes descendantes avec celles montantes en chaque point de l’espace.
Le champ Pn’(r, t, rs) représente l’onde qui se propage dans le modèle courant pour la
valeur courante de la fonction temporelle de la source. Il est facile de voir que Pn’(r, t, rs)
~
relie le champ diffracté perdu qui n’est pas expliqué par le modèle. Les corrections, δS
de l’équation (1-40) peut être obtenue en utilisant les équations suivantes :

δK n ( r ) =

∂P
∂Pn'
1
dt
(r , t ; rs ) n (r , t ; rs )


2
∂t
∂t
K n (r )
s

(1-42a)

δρ~ n (r ) =

1
dt ∑ grad Pn ' (r , t ; rg ,0).grad p n (r , t ; rs )
ρ (r ) ∫ s

(1-42b)

~

2

et δS n (t ' ) = ∑ P ' n (rg , t ; rs , t s )

(1-42c)

s

Pour interpréter ces équations, on a en chaque point dans l’espace là oû il y a un point de
diffraction (point de perturbation de densité où de module d’incompressibilité ), un champ
diffracté sera corrélé avec le champ de l’onde incidente. La somme en fonction de temps dans
l’équation (1-42) sera les mesures appropriées de la corrélation entre le champ incident et le
champ diffracté perdu. Dans ce point, lorsque la corrélation ne sera pas nulle, les valeurs
courantes de la densité et de module d’incompressibilité seront modifiées en accord avec les
équations (1-42a)-(1-42b) et (1-40) ce qui ressemble au principe d’imagerie de Claerbout
1971.

42

CHAPITRE III
INVERSE

LE PROBLEME

L’ultime étape pour l’implantation de l’algorithme itératif est le calcul de l’équation (135) :
~
K n +1 = K n + α C KK δK n − ( K n − K 0 )

]

δρ~ n − ( ρ n − ρ 0 ) ]
~
= S n + α C SS δS n − ( S n − S 0 )

ρ n +1 = ρ n

S n +1

[
+ α [C

[

ρρ

(1-43)

]

Explicitement on a :

K n +1 (r ) = K n (r ) + α [δK n (r ) − [ K n (r ) − K 0 (r )]]

ρ n +1 (r ) = ρ n (r ) + α [δρ n (r ) − ( ρ n (r ) − ρ 0 (r ))]

(1-44)

S n +1 (r ) = S n (r ) + α [δS n (r ) − (S n (r ) − S 0 (r ))]
telle que :

~

δK n (r ) = ∫ dr ' C KK (r , r ' )δK (r )

δρ n (r ) = ∫ dr ' C ρρ (r , r ' )δρ~ ( r )

(1-45)

~

δS n (r ) = ∫ dr ' C SS ( r , r ' )δS (r )
La démarche présentée est une méthode de résolution complète du problème inverse, car
elle tient en compte des réflexions multiples et des réfractions, car les corrections à appliquer
à K et ρ lors des itérations successives, résultent de la corrélation, en chaque point de
l’espace, du champs de propagation direct prédit à partir des sources réelles, et du champ
résiduel de propagation inverse issu des récepteurs considérés comme des sources fictives.
Cette méthode n’est pas encore utilisée industriellement, elle sera sans doute la méthode
d’avenir, l’application la plus courante actuellement est l’inversion stratigraphique pour
l’estimation d’un seul paramètre. A cet effet, une inversion linéairisée est présentée en
annexe A par rapport au paramètre vitesse, qui est considérée comme un cas particulier de
l’inversion généralisée, avec la stratégie d’intégration de l’information de puits en annexe B
.

III-4 TEST D’ARRET
Dans les méthodes itératives on rencontre plusieurs types des erreurs, qui sont les erreurs
des données, erreurs de machines et les erreurs dues au fait que le processus est itératif et
qu’on ne peut pas à faire des itérations jusqu'à l'infini.
La précision limitée de l'ordinateur d'une part et les erreurs des données d'autre part
constituent une limite à la précision que l'on peut atteindre sur le résultat. Donc il est
nécessaire de définir un test d'arrêt qui tient compte de la propagation des erreurs
d’arrondissement et de mesures.
Une fois que le test d'arrêt est déterminé, on peut évaluer l'erreur sur le résultat.
Le critère mathématique d’arrêt est donné par l’expression suivante :
J(∆Cn+1)- J(∆Cn)=0
Le test d'arrêt classique consiste à arrêter le processus itératif lorsque :
43

CHAPITRE III
INVERSE

LE PROBLEME

|| J(∆Cn+1)- J(∆Cn)||< ε

ε∈R+

Où ε est souvent choisi arbitrairement.
Ces tests d'arrêt ne sont pas satisfaisants car :
1. Si ε est choisi très grand, le processus itératif est arrêté avant d'avoir obtenu la
meilleure solution que l'ordinateur peut fournir.
2. Si ε est choisi très petit, un grand nombre d'itérations sont faites sans pour autant
améliorer la précision réelle de la solution. Ces itérations sont absolument inutiles
surtout il est difficile de lier le choix de ε avec la précision souhaitée sur C(r).
Il est donc nécessaire d'améliorer le test classique en supprimant le choix arbitraire de ε et
de le modifier d'une manière à ce qu'il puisse s'interpréter en terme d'erreur sur le résultat.
Le processus se poursuit jusqu’à la réalisation de la convergence, à cet effet l’un des trois
critères est retenu [Wang et al 1996] :
1. Si l’énergie totale des résidus est inférieure à 20dB par rapport à celle de l’entrée.
2. Quand le nombre maximum des itérations est atteint environ 15 itérations.
3. Quand la perturbation de modèle est inférieure à celle précédent <5 %.

III-5. DEMARCHE ET APPLICATION
III-5-1. INTEGRATION DE LA TRACE SISMIQUE
Après corrections, filtrages et migration, on peut considérer que l’essentiel des
problèmes de types géométriques ont été résolus sur la section sismique, dans la mesure où
les traitements sont correctement appliqués. Si dans certains cas, les formes géométriques
peuvent aider à l’identification des faciès, la méthode la plus rigoureuse est le rattachement à
un puits, sachant que les mesures spéciales sont nécessaires pour en assurer la validité. En
dehors de ce cas ou bien loin de puits, il faut utiliser toutes les informations qui permettent
d’aboutir à cette identification.
Pour caractériser le faciès on utilise certain nombre de paramètres, telle que la vitesse
d’intervalle qui est déterminée par l’analyse de vitesse et qui sera interprétée en terme de
faciès global ou bien leurs variations. Un autre paramètre qui est l’impédance acoustique,
usité pour l’étude détaille de faciès, calculé par la technique d’estimation de pseudo-log ou
bien l’inversion.
L’Impédance Acoustique (IA) est le produit de la vitesse et la densité de roches, ceci
signifie que l’IA est une propriété de la roche mais non de l’interface. Cette distinction est la
caractéristique la plus importante de IA.
La dernière étape consiste à passer des coefficients de réflexion aux impédances
acoustiques qui traduisent beaucoup mieux les caractéristiques des roches. Ce passage est
donné par l’expression suivante [Henry, G. 1997] :
rm =

I m1 − I m
I m+1 + I m

La suite du coefficient de réflexion est en quelque sorte une dérivée (dérivée
logarithmique) du log d’impédance acoustique. A partir des coefficients de réflexion, il est
évident que l’on peut revenir au log d’impédance acoustique par une opération inverse
d’intégration. Si la trace sismique échantillonnée est une bonne approximation de r(t),

∫ T ( t ) dt =

1
log I ( t ) + const
44
2

CHAPITRE III
INVERSE

LE PROBLEME

l’intégration de la trace permettra d’atteindre le log(I), c’est-à-dire l’impédance acoustique
[Henry, G. 1997] :
En pratique, le plus souvent est d’inverser la formule suivante :
Cependant, un calage sera nécessaire tant pour déterminer la constante de l’équation cidessus que pour tenir compte les basses fréquences non présentes sur la trace sismique.

I m+ 1 = I m

1 + rm
1 − rm

III-5-2 APPLICATION DE L ‘INVERSION SUR UN PROSPECT SUD
OUEST ALGERIEN.
L’inversion est traitée dans cette partie sous sa forme la plus simple, celle qui consiste à
intégrer les traces sismiques. On transforme par intégration une trace sismique en une pseudodiagraphie d’impédance acoustique dans le but de pouvoir différencier des séries lithologiques
et suivre des variations de faciès et l’extension de caractéristique visible sur un puits.
L’exemple est extrait d’une étude réalisée sur un prospect sud Ouest Algérien. C’est une
zone à potentiel essentiellement à gaz, sauf en bordures où des études géochimiques récentes
montrent la possibilité de découvertes d’hydrocarbures liquides. Plusieurs structures,
marquées en surface par les affleurements de paléozoïque est confirmée par la sismique, ont
donné des résultats très encourageants. Du gaz sec a été obtenu à partir des réservoirs du
Carbonifère basal, du Dévonien inférieur et de l’Ordovicien.
Un traitement complet de ce profil à partir de la mise en collection CDP50 à CDP550, a
été réalisé afin de produire des traces représentatives de la réfléctivité et donc directement
utilisables pour réaliser l’inversion stratigraphique après stack. Le traitement en amplitude
préservée a permet d’éliminer les distorsions du signal provoquées en surface par les
variations de couplage des émetteurs et des récepteurs, par les interférences avec les bruits
sismiques et par les atténuations différentielles lors de la traversée de la zone d’altération
superficielle.
Lors du traitement de ce profil, les corrections des effets de surface sont réalisées par
une égalisation des amplitudes dans le domaine temporel (fenêtre glissante), qui a pour
inconvénient un lissage latéral de la réflctivité du sous-sol. Pour ne compenser que les
artefacts de surface, on a utilisé une décomposition en surface consistante qui tient compte
des effets liés à chaque émission et à chaque réception et on a corrigé ces anomalies dans le
domaine temporel.
• Le profil M 100 a été exploité avec un système d’enregistrement à 48 traces en
couverture 24. La source sismique consistait en des charges d’explosif.
• Des essais de filtrage FK sous NMO sur les collections «Commun Shot Gathers et
Commun Receiver Gathers » n’ont pas été concluants.
• Des essais d’interpolation de traces ont aussi été effectués pour réduire l’effet de
l’aliasing par le processus de «Beam Steering Interpolation » qui ne furent pas non
plus convaincants.
• Le traitement est mené de sorte à obtenir un document de bonne qualité pour servir
de guide aux opérations nécessaires à une sortie de l’information en amplitude.
Préservées.
Les étapes de base de traitement réalisées sont :
45

CHAPITRE III
INVERSE











LE PROBLEME

Compensation des pertes par transmission et par divergence sphérique.
Déconvolution réduisant la distorsion des formes de l‘ondelette.
Egalisation et statiques résiduelles basées sur la compatibilité surface pour
l’élimination des anomalies superficielles et du relief.
Analyse de vitesse pour aligner les signaux et application des corrections
dynamiques avec une fonction mute adéquate.

La fig.02 présente la section finale migrèe avec préservation d’amplitude.
La fig.03 présente la section finale migrèe sans préservation d’amplitude.
La fig.04 la section de réflectivité obtenue après l’application de la séquence de
traitement citée précédemment. Cette section ne montre pas une anomalie particulière
au niveau de réservoir.
La figure 05 illustre l’application de l’inversion stratigraphique sur le profil M001
implanté sur un réservoir à gaz dans un prospect sud Ouest Algérien.

Sur la section en impédance acoustique Fig.05, on observe une zone d’impédance
acoustique négative qui est associée à une faible valeur d’amplitude, observée souvent sous le
réservoir à gaz où les réflexions ont une faible amplitude, due à une perte d’énergie des ondes
lors de leur traverser du réservoir à gaz. Cette anomalie constitue un indicateur direct de gaz.
De plus, on observe sur la même section Fig.05 des variations latérales au niveau du
réservoir, dont les valeurs absolues sont probablement inexactes, mais dont l’évolution
relative est sans doute significative. C’est ainsi qu’une étude avant stack des variations
d’amplitude en fonction de l’offset (AVO) a été réalisée sur le même profil confirme qu’il
s’agit des accumulations du gaz.
A la lumière des résultats obtenus ; il ressort les remarques suivantes :
• L’Impédance Acoustique est la propriété des roches, car elle est le résultat de produit
de la vitesse et la densité, tels que les deux paramètres peuvent être mesuré
directement par les logs de puits. Les données sismiques sont les propriétés des
interfaces, qui sont proches de la convolution de l’ondelette et la série des
coefficients de réflexion. Ces derniers, reflètent le changement relatif de IA. Par
conséquent, l’IA est le lien naturel entre les données sismiques et celles de puits.
• L’IA est lié directement à la lithologie, à la porosité, à la saturation et à d’autres
facteurs. Le modèle de IA peut servir de base pour la génération de modèle des faciès
sismiques et un modèle de propriétés pétrophysiques en 3D. Ce volume de données
peut être utilisé directement par les simulateurs de réservoir pour l’analyse de la
production.
• L’IA est la propriété des couches, tandis que l’amplitude sismique est l’attribut de
limites des couches. Comme une autre propriété des couches, l’IA peut rendre
l’analyse des séquences stratigraphiques plus significative.

CONCLUSION
Le problème inverse non-linéaire est résolu dans l’approximation acoustique. La méthode
est basée sur le critère des moindres carrés généralisés qui permet de manipuler l’incertitude
sur les données avec des informations a priori sur le modèle. Cette méthode constitue un
outil extrêmement puissant pour l’étude et la synthèse d’un modèle géologique, puisqu’elle
permet de déterminer le meilleur modèle qu’on peut obtenir à partir des données du problème
(données d’observation, celles de modélisation et les données a priori ) en restant dans le
cadre de l’hypothèse linéaire. Toutefois, lorsqu’on applique la méthode de l‘inversion linéaire

46

CHAPITRE III
INVERSE

LE PROBLEME

pour l’étude du modèle géologique, on constate que la représentation par un modèle linéaire
est absolument incapable de rendre compte de certaine hétérogénéité si on est en présence des
fortes anomalies de vitesses. Néanmoins, l’inversion linéarisée donne encore une meilleure
image que celle donnée par la migration avant stack.
Un modèle d’impédance acoustique de bonne qualité contient plus d’informations que la
section de réléctivité, car il contient toutes les informations des données sismiques, sans
facteurs de complication causée par l’ondelette. De plus, ce modèle contient des
informations des logs de puits (sonic et densité). Le modèle de l’impédance acoustique est le
résultat de l’intégration des données de différentes sources (les données sismiques, les log de
puits et/ou les informations de vitesse ). En conséquence, construire un modèle d’impédance
c’est le cas le plus naturel d’intégration des données de nature différente.

LISTE DES FIGURES DU CHAPITRE III :
Fig.01 Principe de la modélisation inverse.
Fig.02 Section finale migrée avec préservation d’amplitude.
Fig. 03 Section finale migrée sans préservation d’amplitude.
Fig. 04 Section de reflectivité.
Fig.05 Section en impédance calculé par l’inversion de la ligne m001. le réservoir R se
Caractérise par une forte répartition négative des impédances.

47


Aperçu du document DJARFOUR-Noureddine.pdf - page 1/132
 
DJARFOUR-Noureddine.pdf - page 3/132
DJARFOUR-Noureddine.pdf - page 4/132
DJARFOUR-Noureddine.pdf - page 5/132
DJARFOUR-Noureddine.pdf - page 6/132
 




Télécharger le fichier (PDF)


DJARFOUR-Noureddine.pdf (PDF, 1.3 Mo)

Télécharger
Formats alternatifs: ZIP



Documents similaires


djarfour noureddine
cours de sismologie grenoble
3du9ot3
01 polycope forage
etude de mouvements de terrain par methodes geophysiques
n6zix5g