Fichier PDF

Partage, hébergement, conversion et archivage facile de documents au format PDF

Partager un fichier Mes fichiers Convertir un fichier Boite à outils Recherche Aide Contact



RECO 583 0599 .pdf



Nom original: RECO_583_0599.pdf
Titre: 1Cairn.info
Auteur: 2Cairn.info

Ce document au format PDF 1.4 a été généré par PDFsharp 1.0.898 (www.pdfsharp.com) / PDFsharp 1.0.898 (www.pdfsharp.com) (Original: mbt PDF assembleur version 1.0.26) / PDF PT 3.30 (pdf-tools.com), et a été envoyé sur fichier-pdf.fr le 21/11/2011 à 20:54, depuis l'adresse IP 197.1.x.x. La présente page de téléchargement du fichier a été vue 734 fois.
Taille du document: 137 Ko (11 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)









Aperçu du document


UN TEST DE VALIDITÉ DE LA VALUE AT RISK
Christophe Hurlin et Sessi Tokpavi
Presses de Sciences Po | Revue économique
2007/3 - Vol. 58
pages 599 à 608

ISSN 0035-2764

Article disponible en ligne à l'adresse:

-------------------------------------------------------------------------------------------------------------------http://www.cairn.info/revue-economique-2007-3-page-599.htm

Pour citer cet article :

-------------------------------------------------------------------------------------------------------------------Hurlin Christophe et Tokpavi Sessi , « Un test de validité de la Value at Risk » ,
Revue économique, 2007/3 Vol. 58, p. 599-608. DOI : 10.3917/reco.583.0599

--------------------------------------------------------------------------------------------------------------------

Distribution électronique Cairn.info pour Presses de Sciences Po.
© Presses de Sciences Po. Tous droits réservés pour tous pays.

La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des
conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la licence souscrite par votre
établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque forme et de quelque manière que
ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en
France. Il est précisé que son stockage dans une base de données est également interdit.

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

--------------------------------------------------------------------------------------------------------------------

Un test de validité de la Value at Risk
Christophe

Hurlin*
Sessi Tokpavi**

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

TeSTiNg ValUe aT RiSk ValidiTy
This paper proposes a new simple test of market risk models validation or Value
at Risk (VaR) accuracy. The test exploits the idea that the sequence of VaR violations verifies the properties of a white noise. More precisely, we use the Multivariate
Portmanteau statistic of Hosking [1980] to jointly test the absence of autocorrelation in the vector of violation sequences for various coverage rates considered
as relevant for the management of risks. We show that this multivariate dimension
appreciably improves the power properties of the VaR validation test for reasonable
sample sizes.
Classification JEL : C23, C11

les réglementations prudentielles définies dans le cadre des accords de Bâle
laissent la liberté aux institutions financières de développer leur propre modèle
interne d’évaluation des risques de marché et de calcul de la Value at Risk (VaR).
Or, il existe aujourd’hui un grand nombre de méthodes de calcul de la VaR
allant des approches non paramétriques (méthode hybride, simulation historique,
etc.), aux approches paramétriques (modèles garch univariés ou multi-variés,
RiskMetrics) en passant par les approches semi-paramétriques (extreme Value
Theory, CaViaR, etc.). dès lors, se pose naturellement la question de la validité
* Leo, Université d’Orléans, rue de Blois. BP 6739. 45067 Orléans Cedex 2. Courriel : christophe.hurlin@univ-orleans.fr.
** Leo, Université d’Orléans. Courriel : sessi.tokpavi@univ-orleans.fr.
Nous tenons à remercier lionel Martellini pour ses commentaires et remarques sur une version
précédente de cet article ainsi que les participants à la 6e Journée d’économétrie « développements
récents de l’économétrie appliquée à la finance », Paris-Nanterre, 2006.


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

599

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Dans cet article, nous proposons un test de validation pour les modèles de
calcul du risque de marché ou de la Value at Risk (VaR). Notre test exploite l’idée
selon laquelle la séquence des violations des prévisions de VaR doit vérifier les
propriétés d’un bruit blanc. Plus précisément, nous utilisons une statistique de
portemanteau multivariée (Hosking [1980]) pour tester de façon jointe l’absence
d’autocorrélation dans le vecteur des violations obtenues pour différents taux de
couverture. Nous montrons que ce passage à une dimension multivariée améliore
sensiblement les propriétés de puissance des tests de validation de la VaR pour
des échantillons de petites tailles.

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

de ces différentes mesures de VaR . autrement dit, comment garantir qu’une
mesure de VaR est valide ?
la méthode de validation standard consiste à tester ex post la validité des
prévisions de VaR dans le cadre de procédures de Backtesting (voir Campbell [2006] pour une synthèse sur les procédures de Backtesting). À ce jour, il
existe dans la littérature deux grandes classes de tests de spécification correcte
d’une VaR. la première grande approche, parfois qualifiée de Interval Forecast Evaluation, consiste à tester deux hypothèses fondamentales portant sur
le processus des violations de la VaR : l’hypothèse de couverture non conditionnelle et l’hypothèse d’indépendance (Christoffersen [ 998]). Rappelons
qu’une violation correspond à une situation dans laquelle la rentabilité ex post
du portefeuille est inférieure à la valeur prévue ex ante de la VaR. l’hypothèse
de couverture non conditionnelle signifie tout simplement qu’une VaR pour un
taux de couverture de 5 %, par exemple, n’est valide qu’à la condition que la
fréquence des violations observées ait une espérance égale à 5 %. l’hypothèse
d’indépendance, quant à elle, traduit le fait que, si le modèle de calcul de la VaR
est valide, les violations associées aux prévisions de VaR à une période doivent
être indépendamment distribuées. autrement dit, il ne doit pas exister de cluster
de violations : l’occurrence d’une perte supérieure à la VaR anticipée apparue
dans le passé ne doit pas permettre de prévoir les violations futures. Plusieurs
tests de l’une ou de l’autre de ces deux hypothèses ou des deux hypothèses
jointes ont été proposés dans la littérature pour un niveau de couverture donné
(kupiec [ 995] ; Christoffersen [ 998] ; engle et Manganelli [2004] ; Berkowitz
et al. [2005]). Un des points faibles de ces tests, à l’exclusion du test d’engle et
Manganelli [2004], réside dans leur défaut de puissance sur petits échantillons.
Une telle propriété est particulièrement dommageable puisqu’elle peut conduire
à ne pas rejeter la validité de mesures de VaR pourtant non valides au sens de la
couverture conditionnelle.
la seconde approche repose au contraire sur l’évaluation de la densité de
probabilité des pertes et profits qui permet de calculer la VaR ex ante (Berkowitz
[200 ]). la démarche est ici totalement différente puisque l’on teste en amont le
modèle qui sert au calcul de la VaR sans recours à la VaR elle-même (qui n’est
rien d’autre qu’un fractile de cette distribution). Ce faisant, ceci revient à tester
la validité de l’ensemble de la densité de la distribution conditionnelle des pertes
et profits modélisée ex ante et donc à tester la validité implicite de la VaR pour
tous les taux de couverture compris entre 0 et . Cette méthode d’évaluation,
dite Density Forecast Evaluation, s’inscrit dans le cadre plus général des tests de
spécification correcte des densités conditionnelles de prévision (voir Corradi et
Swanson [2006], pour une synthèse). Toutefois, il est évident que cette approche
générale doit être amendée afin de prendre en compte la spécificité de la validation de la VaR qui n’a d’intérêt que pour des événements extrêmes. Évaluer
la validité de la VaR pour un taux de couverture de 50 % n’a en effet que peu
d’intérêt pour la gestion des risques financiers telle que l’envisage la réglementation prudentielle. dès lors, ces tests doivent être menés sur un support réduit
ne prenant en compte que la queue à gauche de la distribution conditionnelle
des rentabilités.

. Nous n’évoquerons pas dans le cadre de cet article la question du choix d’une mesure de VaR
parmi un ensemble de mesures valides.

600


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Revue économique

Christophe Hurlin, Sessi Tokpavi

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

dans cet article, nous proposons un nouveau test de validation de la VaR
tirant avantage de l’une et de l’autre des deux approches retenues dans la littérature. Plutôt que d’adapter un test de l’approche Density Forecast Evaluation
à l’évaluation de la seule queue de distribution des rentabilités, nous proposons
d’adapter un test de l’approche Interval Forecast Evaluation afin d’évaluer la
validité de la VaR pour un ensemble pertinent de taux de couverture. Notre
test est fondé sur la propriété de bruit blanc faible du processus vectoriel des
violations associées à un ensemble fini de différents taux de couverture considérés comme pertinents pour l’analyse des risques extrêmes. Plus précisément,
nous proposons un test de l’hypothèse nulle d’absence d’autocorrélations dans
ce processus vectoriel fondé sur une statistique de Portemanteau multivariée
de type Hosking [ 980]. il s’agit alors, par exemple, d’évaluer un modèle de
calcul de la VaR en testant en particulier la propriété de couverture conditionnelle pour des processus de violations associées aux VaR à %, 5 % et 0 %,
et non plus seulement des violations associées à un seuil unique de 5 %. Ce
faisant, nous exploitons un ensemble d’information beaucoup plus vaste pour
évaluer la validité du modèle, à l’image des tests fondés sur l’approche Density
Forecast Evaluation. Pour autant, notre approche est très simple à mettre en
œuvre et permet d’éviter l’écueil qui consiste à évaluer la VaR pour des taux de
couverture non pertinents pour la gestion des risques. enfin, nous montrons que
notre statistique de test multivariée présente de très bonnes propriétés dans des
échantillons de petite taille.
l’article est organisé de la manière suivante. dans la première section, nous
revenons sur la notion de couverture conditionnelle d’une VaR. dans la deuxième
section, nous présentons notre statistique multivariée. la troisième section est
consacrée à l’étude de ses propriétés à distance finie.

Validité d’une préVision de Var
Traditionnellement, la validité de la prévision d’une grandeur économique est
évaluée en comparant sa réalisation ex post à la valeur prédite ex ante. la comparaison des différents modèles de prévision se fait généralement via l’utilisation
d’un critère comme par exemple le critère de la Mean Squared error (mse) ou les
critères d’information (aic, bic, etc.). Cette démarche n’est cependant pertinente
que si la réalisation ex post de la variable d’intérêt est observable. dans le cas
où elle est inobservable, l’exercice d’évaluation nécessite alors d’utiliser une
proxy de la variable latente. Toutefois, dans la problématique VaR la construction d’une telle variable proxy est a priori impossible. C’est pourquoi les critères
d’évaluation de la VaR sont généralement fondés sur des tests statistiques (et non
de simples critères) des deux principales hypothèses que le processus associé aux
violations de la VaR anticipée doit satisfaire, à savoir l’hypothèse de couverture
non conditionnelle et l’hypothèse d’indépendance.
Formellement, on note rt la rentabilité d’un actif ou d’un portefeuille d’actifs
à la date t. la valeur ex ante de la VaR pour un taux de couverture de a %, notée
VaRt t - 1 ^ah, anticipée conditionnellement à un ensemble d’information disponible à la date t - 1, noté Xt - 1, est définie par la relation suivante :
( )
Pr 8 rt < VaRt t - 1 ^ahB = a .

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

601

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po



Revue économique
Soit It ^ah la variable indicatrice associée à l’observation ex post d’une violation de la VaR à a % à la date t.
1 si rt< VaRt t - 1 ^ah
.
(2)
It ^ah = *
0 sinon
Christoffersen [ 998] montre que le problème de la validité de la VaR peut
T
se ramener au problème de savoir si la séquence des violations #It - t 1 satisfait
=
ou non les deux hypothèses suivantes :

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

L’hypothèse d’indépendance. Les violations de la VaR observées à deux
dates différentes pour un même taux de couverture doivent être indépendamment distribuées. Formellement, la variable It ^ah associée à la violation à
la date t de la VaR pour un taux de couverture à a %, est indépendante de
la variable It - k ^ah, 6k ! 0. Dit autrement, cela signifie que les violations
passées de la VaR ne contiennent pas d’information sur les violations contemporaines et futures. Cette propriété doit en outre être valable pour n’importe
quelle variable appartenant à l’ensemble d’information Xt - 1 disponible à
la date t - 1.

la première hypothèse est tout à fait intuitive : pour un niveau de couverture
de a %, la fréquence des pertes en excès par rapport à cette VaR doit être égale en
espérance à a %. Si la probabilité de violation, notée rt = Pr 8 It ^ah = 1B, estimée par la fréquence des violations observée sur T périodes, i.e. _1 Ti

! It ^ah,
T

t=1

est significativement supérieure (respectivement inférieure) à a %, la mesure
de VaR est non valide et conduit à une sous-évaluation (respectivement surestimation) du risque. les tests de validité de cette propriété de couverture non
conditionnelle ont été initialement développés par kupiec [ 995]. la seconde
propriété d’indépendance des violations indique que toute mesure de risque doit
s’ajuster automatiquement et sans retard à toute nouvelle information entraînant une évolution nouvelle dans la dynamique de la rentabilité de l’actif. Une
modélisation, qui ne prend pas en compte cet aspect, risque d’engendrer des
violations successives se présentant en cluster où des pertes extrêmes peuvent
alors succéder à des pertes extrêmes. aussi, aucune forme de dépendance ne doit
donc exister dans la séquence des violations.
il est important de noter que ces deux propriétés de la VaR sont distinctes
l’une de l’autre. dès lors, si une mesure de VaR ne satisfait pas à l’une ou l’autre
de ces deux hypothèses, elle doit être considérée comme non valide. À l’inverse,
on parle d’efficience conditionnelle (ou de couverture conditionnelle) lorsque la
mesure de VaR satisfait les deux hypothèses de couverture non conditionnelle
et d’indépendance.
602


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

L’hypothèse de couverture non conditionneLLe. La probabilité que
se réalise ex post une perte en excès par rapport à la VaR anticipée ex ante
doit précisément être égale au taux de couverture a :
(3)
Pr 8 It ^ah = 1B = E 8 It ^ahB = a .



Christophe Hurlin, Sessi Tokpavi

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

dans cet article, nous proposons un nouveau test de validation de la VaR, qui
comme nous l’avons dit en introduction, tire avantage de l’une et de l’autre des
deux approches de tests de validation retenues dans la littérature. l’idée de base
est très simple : si un modèle (ou une mesure) de VaR est valide pour un taux
de couverture à 5 %, il doit l’être aussi pour un taux de couverture de %, 2 %,
de 7 % ou de 0 %. en effet, le choix du taux de couverture ne doit pas modifier le résultat quant à la validité d’une mesure de VaR. Cette idée est proche
de celle retenue dans le cadre de l’évaluation des densités conditionnelles des
rentabilités. Pour autant, cette idée peut être plus directement et plus facilement
exploitée dans le cadre d’une simple modification des tests statistiques usuels
de Backtesting. C’est pourquoi nous proposons une extension au cas multivarié
du test d’absence d’autocorrélation des violations proposé par Berkowitz et al.
[2005]. Notre test, fondé sur une statistique de portemanteau multivariée, permet
de tester de façon jointe la propriété de couverture conditionnelle pour différents
taux de couverture pertinents. il exploite ainsi un ensemble d’information plus
vaste que ceux généralement retenus dans les tests relevant de la catégorie Interval Forecast Evaluation, sans pour autant tomber dans le travers des tests fondés
sur l’évaluation de la densité des rentabilités.
Formellement, on note Hitt ^ah l’indicatrice valant 1 - a en cas de violations
et – a dans le cas contraire :
1 - a si rt < VaRt t - 1 ^ah
.
(4)
Hitt ^ah = *
sinon
-a
l’hypothèse de couverture conditionnelle telle que formulée par Christoffersen [ 998], i.e. E 9 Hitt ^ah Xt - 1C = 0, implique en particulier (propriété d’espérance itérée) que pour un taux de couverture donné a on ait :
(5)
E 8 Hitt ^ah Hitt - k ^ahB = 0 6k ! N* .
Comme nous l’avons évoqué précédemment, cette hypothèse implique en
outre l’indépendance des processus de violations associées à des taux de couverture a et b différents :
(6)
E 8 Hitt ^ah Hitt - k ^bhB = 0 6k ! N*, 6 ^a , bh .
C’est précisément cette propriété des violations de la VaR qui est à la base
de l’extension multivariée du test portemanteau que nous proposons. l’idée
consiste tout simplement à tester la validité du modèle de détermination de la
VaR pour un ensemble fini de différents taux de couverture considérés comme
a priori pertinents pour la gestion des risques. Pour ce faire, nous proposons de
construire une statistique de test multivariée testant l’absence d’autocorrélation
des processus de violations associés à différents taux de couverture.
définition. Soit H = #i1, f, i m- un ensemble discret de m taux de couverture différents, compris entre 0 et strictement et considérés comme pertinents
pour l’analyse des risques. Soit Hitt = 8 Hitt _i1i : Hitt _i 2i : f : Hitt _i miB ' le
vecteur de dimension ^m, 1h regroupant les séquences de violations associées
à ces m différents taux de couverture à la date t. L’hypothèse de couverture
conditionnelle pour le processus vectoriel Hitt implique que :
(7)
cov _ Hitt , Hitt - k i = E 7 Hitt Hit lt - k A = V d k

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

603

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

un test de Validation

Revue économique
où V est une matrice ^m, mh symétrique non nulle et où dk est un scalaire tel
que :
1 si k = 0
.
(8)
dk = )
0 sinon
la mise en œuvre pratique de notre test de couverture conditionnelle consiste,
pour un ordre k donné, à tester l’hypothèse nulle correspondant à la nullité jointe
des autocorrélations d’ordre à k pour le processus vectoriel Hitt :
(9)
H0 : cov _ Hitt, Hitt - k i = V d k 6k = 1, f, K

ou de façon équivalente H0 : E 9 Hitt _ii i Hitt - k `i j j ' C = 0, 6k = 1, f, K,
6 `ii , i j j ! H. Ce test n’est rien d’autre qu’une extension multivariée des tests
portemanteau usuels. Pour mener à bien ce test, plusieurs statistiques multivariées peuvent être utilisées. Nous retiendrons dans cette application la statistique
de Hosking [ 980] qui, dans le cas m = 1, correspond à la statistique modifiée
t la matrice de covariance empirique associée
de ljung et Box [ 978]. On note C
k
au vecteur Hitt :
T

! Hitt Hit lt - k .

( 0)

t=k+1

résuLtat. Soit Q m ]K g la statistique portemanteau multivariée (Hosking
[1980]) associée au test de l’hypothèse nulle de couverture conditionnelle
pour un ordre k d’un ensemble de mesures de VaR associées à m taux de
couverture :
Q m ]K g = T 2

!^T - k h - 1 tr `Ct lk Ct -0 1 Ct k Ct -0 1j
K

( )

k=1

avec tr ^.h l’opérateur matriciel trace. Sous l’hypothèse nulle d’absence
d’autocorrélation dans le vecteur Hitt , cette statistique converge :
Q m ]K g

" | 2 ^Km 2h .
d

T-3

( 2)

À ce stade, se pose évidemment le problème du choix du nombre m de taux
de couverture. il est évident que notre démarche implique que l’on considère au
minimum deux taux de couverture. de même, plus m augmente, plus l’ensemble
d’information augmente, ce qui devrait donc permettre d’obtenir de meilleures
propriétés à distance finie. Toutefois, retenir une valeur élevée pour m présente
un inconvénient relatif au calcul effectif de la statistique Q m ]K g . en effet,
t est singulière. Or la probaQ m ]K g ne peut pas être calculée si la matrice C
0
bilité que cette matrice soit singulière augmente lorsqu’on retient des taux de
couverture extrêmement proches les uns des autres, i.e. lorsqu’on augmente m
tout en limitant les taux ij à un intervalle de valeurs faibles. Pour illustration,
supposons que l’ensemble H des taux de couvertures soit tel que i min = 1 % et
i max = 5 %. Si l’on retient neuf taux de couverture équirépartis dans cet intervalle, soit H = "1 %, 1, 5 %, 2 %, 2, 5 %, 3 %, 3, 5 %, 4 %, 4, 5 %, 5 %,, il est très
probable que la matrice Hit présente plusieurs colonnes identiques (par exemple,
mêmes occurrences de violations à % et à ,5 %, pour de petits échantillons),
t . intuitivement, plus le nombre
et donc qu’elle implique une singularité de C
0
m de taux de couverture est important, plus l’on tend vers une approche de type
604


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

t = ` ct j =
C
k
ijk



Christophe Hurlin, Sessi Tokpavi

Density forecast Evaluation en utilisant une statistique de test qui n’est pas adaptée à ce type de problématique. C’est pourquoi il existe un arbitrage concernant le
choix de m : une augmentation du nombre de taux de couverture pris en compte
améliore les propriétés de puissance de notre test, mais au-delà d’un certain seuil
une augmentation de m rend caduque la pertinence de notre approche fondée sur
une statistique de type Interval Forecast Evaluation. C’est pourquoi nous suggérons de retenir au plus trois taux de couverture ^m G 3h . Pour m = 2, nous
proposons de considérer l’ensemble H = "1 %, 5 %, et pour m = 3 l’ensemble
H = "1 %, 5 %, 10 %, . Ces taux de couverture, relativement distants, permett et correspondent à des
tent généralement d’éviter la singularité de la matrice C
0
taux de couverture usuels dans la problématique de gestion des risques.

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

dans cette section, nous étudions les propriétés de puissance et de taille à
distance finie de notre test. afin d’évaluer la taille empirique de notre test, nous
simulons la distribution des pertes et profits d’un portefeuille fictif selon un
processus egarch. On considère la calibration utilisée par Campbell [2006]
pour répliquer la dynamique des rentabilités mensuelles d’indices américains
sur longue période ( 927- 998).
( 3)
rt + N `0, vt2j
r
r
( 4)
ln `vt2j = 0.02 + 0.94 ln `vt2 - 1j + 0.22 t - 1 - 0.05 t - 1
vt - 1
vt - 1
la taille est alors évaluée en utilisant une méthode de calcul de la VaR
qui suppose connue la vraie dynamique de la rentabilité de notre actif. ainsi,
la VaR anticipée ex ante est construite pour un taux de couverture donné à
partir de la variance conditionnelle déterminée par l’équation ( 4). les séries
de VaR out-of-sample sont générées pour des échantillons tests de taille
T = "250, 500, 750, 1 000, 1 500, . À partir des séquences de violations de la
VaR observées ex post, la statistique de test Q m ]K g est calculée et l’exercice
complet est reproduit 0 000 fois. la taille empirique correspond alors à la
fréquence de rejet de l’hypothèse de couverture conditionnelle. Si la distribution
asymptotique de notre test est adéquate, cette fréquence de rejet doit tendre vers
la taille nominale (fixée dans nos expériences à 0 %) lorsque T augmente.
dans les deux dernières colonnes du tableau , sont reportées les tailles empiriques de notre test pour différentes configurations et tailles T d’échantillon. Pour
tous les tests, nous considérons cinq retards ^ K = 5h et deux ou trois taux de
couverture . dans le cas où m = 2, on considère H = "1 %, 5 %, . dans le cas
où m = 3, on considère H = "1 %, 5 %, 10 %, . On constate que les deux statistiques correspondantes, notées Q 2 ^5h et Q3 ^5h, ont une taille empirique légèrement supérieure à la taille nominale de 0 % pour de petits échantillons, avec
cependant une convergence vers la taille nominale de 0 % lorsque T augmente.
À titre de comparaison, dans ce tableau sont aussi reportées les tailles empiriques
. les résultats de taille et de puissance de notre test pour différentes valeurs de k, m et T sont
disponibles sur requête.


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

605

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

propriétés à distanCe finie

Revue économique
des tests de couverture conditionnelle de Christoffersen [ 998] noté LRCC et
d’engle et Manganelli [2004] noté DQCC . le principe du test de Christoffersen
consiste à postuler que le processus de violations suit une chaîne de Markov à
deux états. Christoffersen en déduit très facilement un test de couverture conditionnelle en testant les paramètres de la matrice de transition selon un simple
test de ratios de vraisemblance. engle et Manganelli [2004] proposent, quant à
eux, un test fondé sur la projection du processus de violation centré Hit sur ses k
valeurs passées et une constante. le test de couverture conditionnelle se ramène
alors à un test de nullité jointe sur les paramètres de ce modèle linéaire. Ce qu’il
est important de noter, c’est que ces tests de validation ne sont valables que pour
un unique taux de couverture : c’est pourquoi nous reportons la taille empirique
de ces tests pour des VaR à %, 5 % et 0 %. On constate que la taille empirique du test d’engle et Manganelli est toujours relativement proche de la taille
nominale ( 0 %) et cela y compris pour de petits échantillons. en revanche, on
observe que pour une VaR à %, le test de Christoffersen présente une distorsion
de taille, tendant à être undersized quelque soit la taille de l’échantillon.

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

a
T = 250
T = 500
T = 750
T = 000
T = 500

Taille empirique des tests LRCC, DQCC et Qm ]Kg

LRCC
a= %
0.0386
0.06 3
0.05 9
0.0657
0.0537

Q2 (5)

DQCC

a = 5 % a = 0 % a = %
0.0827
0. 49
0.0776
0.0886
0. 059
0.09 0
0. 0
0. 029
0. 093
0. 556
0.0928
0. 304
0. 058
0. 077
0. 039

3

a = 5 % a = 0 %
0.0965
0.0983
0.0902
0. 025
0.0905
0.0984
0.0923
0.0907
0.09 8
0.0972

Q3 (5)





0. 583
0. 502
0. 524
0. 435
0. 270

0. 64
0. 574
0. 446
0. 397
0. 265

Pour chaque simulation, la distribution des rendements est simulée selon un processus egarch. À partir de ce
processus théorique, on calcule les prévisions de VaR qui satisfont l’hypothèse de couverture conditionnelle (cc).
Pour chaque test, la taille empirique correspond à la fréquence de rejet de l’hypothèse nulle de cc obtenue à partir
de 0 000 simulations. T correspond à la taille de l’échantillon de VaR. Pour les tests dq (engle et Manganelli
[2004]) et pour notre test Q, l’ordre des retards k est fixé à 5. Lr désigne le test de Christoffersen [ 998]. la
taille nominale est égale à 0 %.

en ce qui concerne le calcul de la puissance de notre test, nous avons adopté
la méthodologie suivante. On considère le même processus que précédemment
pour la distribution des rendements (équation 4). Mais, à la différence de l’exercice précédent, nous appliquons une méthode de calcul de la VaR non adaptée
par rapport à la distribution des pertes et profits, violant ainsi l’hypothèse de
couverture nominale et/ou d’indépendance. dans le cadre de différents exercices
de puissance (disponible sur requête), nous avons retenu plusieurs méthodes de
calculs. Nous ne reportons ici que les résultats obtenus à partir de la méthode
Simulation historique (hs) retenue en particulier par Berkowitz et al. [2005]. la
VaR prévue par la méthode hs à la période t - 1 pour la période t correspond
tout simplement au quantile empirique d’ordre a de la chronique des rentabilités
passées sur une fenêtre de taille Te, fixée ici à 250 observations. Formellement,
la VaR est définie par la relation suivante :
VaRt

t-1

^ah = percentile c$ rj .

t-1
j = t - Te

, am .

( 5)

606


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

tableau 1.



Christophe Hurlin, Sessi Tokpavi
figure 1.

Rendements simulés par un processus egarch et VaR-hs à 1 % et 5 %

30
P/L
VaR 1 %
VaR 5 %

25
20
15
10
5
0
–5
– 10
– 15
100

200

300

400

500

600

700

800

900 1 000

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Sur la figure est comparée la rentabilité observée (équation 4) à la VaRpour une simulation donnée. On constate immédiatement que les clusters de
violations sont assez prononcés, que ce soit pour une VaR à % ou pour une
VaR à 5 %.

hs

tableau 2. Puissance empirique des tests LRCC, DQCC et Qm ]Kg
a
T = 250
T = 500
T = 750
T = 000
T = 500

LRCC
a= %
0.2 76
0.2098
0.2 34
0.2 26
0.2 67

a = 5 % a = 0 % a = %
0.3033
0.2322
0.3864
0.2625
0.2434
0.4290
0.2995
0.2969
0.5029
0.30 4
0.35 4
0.56
0.4784
0.7290
0.4 08

DQCC
a = 5 % a = 0 %
0.4856
0.478
0.5925
0.5920
0.69 9
0.6904
0.7546
0.7795
0.8752
0.8994

4

Q2 (5)

Q3 (5)





0.4654
0.62 3
0.7337
0.80 7
0.8985

0.4970
0.692
0.7980
0.8597
0.934

Pour chaque simulation, la distribution des rendements est simulée selon un processus egarch. À chaque date,
la VaR est prévue selon la méthode simulation historique (hs). la puissance empirique est calculée selon la
méthodologie de dufour [2004] à partir de 0 000 simulations. T correspond à la taille de l’échantillon de VaR.
dq désigne le test d’engle et Manganelli [2004] et Lr désigne le test de Christoffersen [ 998]. la taille nominale
est égale à 0 %.

dans le tableau 2, sont reportées les puissances des trois tests. les puissances
sont calculées selon la méthodologie de dufour permettant de tenir compte
des différences de taille empirique des tests étudiés. On observe que la puissance de notre test domine celle du test LRCC de Christoffersen [ 998]. Pour
une VaR à 5 %, sur 250 jours de cotation, le test LRCC ne permet de rejeter la
validité que pour une mesure non valide sur trois. Notre test porte ce taux à une
. les résultats (disponibles sur requête) sont similaires lorsque la puissance n’est pas corrigée.
la différence de puissance en faveur de notre test étant alors naturellement encore plus conséquente.


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

607

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

– 20
0

Revue économique
mesure sur deux. il en est de même lorsque la comparaison est faite avec le test
DQCC (surtout pour un taux de couverture de %), avec une amélioration de la
puissance allant de 2 à 29 %. Ces résultats illustrent toutefois la faiblesse de
la puissance des tests actuels de validation de la VaR utilisés dans le cadre des
procédures de Backtesting. en dépit de l’amélioration de puissance apportée
par notre test, pour une taille d’échantillon de 250 points, ces puissances restent
relativement faibles. en revanche, la puissance de notre test augmente très sensiblement et très rapidement avec la taille d’échantillon, ce qui n’est pas le cas par
exemple du test de Christoffersen. Pour 500 observations de la VaR, notre test
permet ainsi de rejeter la validité de près de deux mesures non valides sur trois
pour un risque de premier espèce de 0 %.

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

Nous proposons, dans cet article, un test de validation de la VaR, situé à michemin entre les approches Interval Forecast Evaluation et Density Forecast
Evaluation. Ce test, facile à mettre en œuvre, apparaît comme relativement plus
puissant que les principaux tests de couverture conditionnelle existants dans la
littérature. il offre en outre l’avantage de tester la validité d’un modèle de calcul
de la VaR pour un ensemble de taux de couverture jugés pertinents pour l’analyse des risques financiers.

RéFéREnCES bIbLIogRapHIquES
berkowitz J. [200 ], « Testing density Forecasts With applications to Risk Management », Journal of business and Economic Statistics, 9, p. 465-474.
berkowitz J.,  christoffersen P. F. et peLLetier d. [2005], « evaluating Value-atRisk Models with desk-level data », Working paper, University of Houston.
campbeLL S. d. [2006], « a Review of Backtesting and Backtesting Procedures », Journal of Risk (à paraître).
christoffersen P. F. [ 998], « evaluating interval Forecasts », International Economic Review, 39, p. 84 -862.
corradi V. et swansson N.R. [2006], « Predictive density evaluation », Handbook of
Economic Forecasting.
dufour J. M. [2004], « Monte Carlo Tests with Nuisance Parameters: a general
approach to Finite-Sample inference and Nonstandard asymptotics », The Journal
of Econometrics (à paraître).
engLe R. F. et manganeLLi S. [2004], « CaViaR: Conditional autoregressive Valueat-Risk by Regression Quantiles », Journal of business and Economic Statistics, 22,
p. 367-38 .
hosking J. R. M. [ 980], « The multivariate portmanteau statistic », J. amer. Statist.
ass., 75, p. 602-608.
kupiec P. [ 995], « Techniques for Verifying the accuracy of Risk Measurement
Models », Journal of Derivatives, 3, p. 73-84.
LJung g. M. et box g. e. P. [ 978], « On a Measure of lack of Fit in Time Series
Models », biometrika, 65, p. 297-303.

608


Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Document téléchargé depuis www.cairn.info - - - 197.1.18.31 - 21/11/2011 19h08. © Presses de Sciences Po

ConClusion


Documents similaires


Fichier PDF reco 583 0599
Fichier PDF georges perkins marsh
Fichier PDF rai 018 0073
Fichier PDF ving 110 0059
Fichier PDF senghor y en a marre
Fichier PDF ving 110 0067


Sur le même sujet..