En plein cœur de la crise, diverses questions se sont soulevées au  sujets des méthodes d’analyse

En plein cœur de la crise, diverses questions se sont soulevées au sujets des méthodes d’analyse

-

Documents
46 pages
Lire
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

MEMOIRE DE RECHERCHE APPLIQUEE Présenté et soutenu par Dimitri Duval MASTER FINANCE DE MARCHE « Efficience des marchés et Méthodes de Monte Carlo : Peut-on réaliser des profits anormaux au moyen de l’Analyse Technique ?» Année universitaire 2008-2009 Pilote de mémoire : Jérôme Senanedsch, Docteur en Sciences de Gestion 1REMERCIEMENTS J’adresse mes remerciements à Jérôme Senanedsch, pour l’aide encadrante qu’il m’a apportée, Alexis, pour son aide dans l’obtention des données brutes de Bloomberg, Sarah et Sébastien, pour leur précieuse relecture, Et enfin, à Claudia, pour être là. Je remercie aussi l’INSEEC, de m’avoir donné les moyens, au terme de mes années d’études, de réaliser ce travail d’investigation. 2SOMMAIRE INTRODUCTION p 4 I. L’Efficience informationnelle des Marchés Financiers p6 A. Définition p6 B. Les tests d’efficience p7 II. Analyse empirique de la performance de méthodes simples d’analyse technique, et propriétés stochastiques des prix de marchés. p13 A. Données et stratégies de trading par Analyse Technique p14 B. Résultats empiriques : Tests traditionnels p21 C. Botsrap p29 CONCLUSION p36 ANNEXES 38 REFERENCES BIBLIOGRAPHIQUES p41 TABLE DES ...

Sujets

Informations

Publié par
Nombre de visites sur la page 154
Langue Français
Signaler un problème











MEMOIRE DE RECHERCHE APPLIQUEE



Présenté et soutenu par

Dimitri Duval





MASTER FINANCE DE MARCHE

« Efficience des marchés et Méthodes de Monte Carlo :
Peut-on réaliser des profits anormaux au moyen de l’Analyse Technique ?»



Année universitaire
2008-2009





Pilote de mémoire : Jérôme Senanedsch, Docteur en Sciences de Gestion






































1REMERCIEMENTS






J’adresse mes remerciements à Jérôme Senanedsch, pour l’aide encadrante qu’il m’a apportée,
Alexis, pour son aide dans l’obtention des données brutes de Bloomberg,
Sarah et Sébastien, pour leur précieuse relecture,
Et enfin, à Claudia, pour être là.

Je remercie aussi l’INSEEC, de m’avoir donné les moyens, au terme de mes années d’études,
de réaliser ce travail d’investigation.




















2SOMMAIRE



INTRODUCTION p 4

I. L’Efficience informationnelle des Marchés Financiers p6

A. Définition p6
B. Les tests d’efficience p7

II. Analyse empirique de la performance de méthodes simples d’analyse technique, et
propriétés stochastiques des prix de marchés. p13

A. Données et stratégies de trading par Analyse Technique p14
B. Résultats empiriques : Tests traditionnels p21
C. Botsrap p29

CONCLUSION p36

ANNEXES 38

REFERENCES BIBLIOGRAPHIQUES p41

TABLE DES MATIERES p4

RESUME ET ABSTRACT 45







3INTRODUCTION

En plein cœur de la crise, diverses questions ont été soulevées au sujet des méthodes
d’analyse des cours boursiers notamment. Les portefeuilles d’actions ont perdu de la valeur au
point d’amorcer la faillite de grands groupes financiers mondiaux comme Lehmann Brothers,
et certains indices boursiers comme le CAC40, ont perdu près de 60% de leur valeur en
l’espace d’à peine 21 mois, nous ramenant ainsi à des niveaux de 6 ans en arrière. Divers
scandales ont éclaté sur la gestion des opérateurs de marché, dont certains annonçant pour le
compte de leur banque des pertes avoisinant les 5 milliards d’euros, un record. Cette crise
sans précédent est sans aucun doute aussi un excellent moyen de remettre en cause un système
qui avait tendance à fonctionner jusqu’alors, mais dont on connaissait encore mal les limites :
celui de la finance quantitative. Face à ce terrible constat d’échec, nombreux sont ceux qui ont
commencé à remettre les bases conceptuelles actuelles de la finance néoclassique en question.
En effet, pour beaucoup, la mathématisation trop importante de la finance est la source des
excès et de l’effondrement du système financier connu pendant la crise des subprimes.
Et pour cause. Depuis les années quatre-vingt, jusqu’à aujourd’hui, près d’un siècle après la
thèse de louis Bachelier (1900), les mathématiques appliquées à la finance ont connu un essor
formidable aboutissant à la formation d’un cadre théorique d’une grande puissance et d’une
élégance remarquable. En amont de cela, la problématique était de rendre compte du hasard
boursier et de rationaliser son modèle de formation de prix. Car dans un contexte de
dérégulation des marchés financiers au milieu des années 1970, tenir compte de la nouvelle
volatilité des taux de change permettait de couvrir ces risques dans un environnement
incertain. C’est ainsi qu’ont émergé les produits dérivés et les travaux de Black, Scholes et
Merton (1973) récompensés par un prix Nobel en 1997 (à titre posthume pour Black décédé
en 1995), qui ont permis une avancée sans précédent en théorie financière, grâce à leur
stratégie permettant d’annuler tous les risques possibles dans tous les scenarii de marché. La
révolution technologique et financière qui caractérisent deux des ruptures de notre société
post-industrielle (Daniel Cohen, 2006) ont ensuite permis une évolution rapide et prolifique
du concept, l’avènement du calcul stochastique appliqué à la finance, et un développement
mondial extraordinaire de nouveaux marchés organisés. Mais voilà, le modèle de Black-
Scholes repose sur une hypothèse que l’on savait fausse depuis déjà longtemps, et qui est
aujourd’hui remise en question avec d’autant plus de force qu’elle a abouti à des pertes
colossale pendant cette crise. Cette hypothèse est celle de la normalité des prix. Nassim
Nicholas Taleb, dans son essai intitulé Le Cygne Noir, La puissance de l’imprévisible dira
4même « Je trouve choquant que la courbe en cloche soit employée comme outil de mesure des
risques par ces régulateurs ou ces banquiers qui portent des costumes sombres et tiennent des
propos assommants sur les monnaies » (Nicholas Taleb, 2008, p. 301)
Non moins provocant, Mandelbrot écrira dans son ouvrage Fractales, hasard et finance que
« l’approximation gaussienne optimale [de l’histogramme des changements d’un prix] est
uniformément détestable », mais nuancera en précisant qu’il croit « possible de préserver
quelques idées de base [de la thèse de Bachelier] tout en modifiant le mouvement brownien
de fond en comble. » (Mandelbrot, 2009, p. 139)
Ces évidences ont trouvé leur écho dans la crise actuelle, et le constat est aujourd’hui fait que
la finance néoclassique est en « manque de lanceurs d’alerte » (interview de Raphaël Douady,
2009, docteur en mathématiques au CNRS et faisant référence à la VaR), alors que la question
est lancée par Rama Cont, directeur de recherche du CNRS au laboratoire de probabilité et
modèles aléatoires (université Paris VI-VII), de savoir « s’il s’agit d’une défaillance des
méthodes quantitatives » (Cont, 2009, p. 24)
Des méthodes de trading autrefois considérées comme « voodoo finance » (Lo et. al, 2000, pp.
1705) sont aujourd’hui reconsidérées pour mieux tenter d’appréhender le hasard boursier. Se
pose alors la question de l’efficience de marché : Les marchés sont-ils efficients, et en quel
sens ? Peut-on réaliser des profits anormaux avec des méthodes d’analyse technique ?
Ce mémoire a pour objectif de déterminer si l’efficience faible des marchés peut être validée.
Pour cela, nous utiliserons un échantillon de cours d’indices boursiers sur une dizaine d’année,
que nous soumettrons à divers tests statistiques classiques, ainsi qu’à un test de bootstrap à
partir d’une simulation de Monte-Carlo, pour l’étude de la significativité des performances
par rapport à la stratégie d’achat conservation sous les critères du ratio de Sharpe.











5I. L’Efficience informationnelle des Marchés Financiers

A. Définition

La théorie de l’efficience des marchés tire sa source dès les années 30 avec Cowles & Jones
(1937). Après la seconde guerre mondiale, les économistes commencèrent à douter des
méthodes de prévision des cours boursiers, alors essentiellement basées sur l’idée que les
marchés sont caractérisés par des tendances haussières ou baissières. L’idée alors opposée
était le modèle de marche aléatoire des cours, mais il faut attendre les années 70 avec
Samuelson, Fama, puis Jensen, pour avoir le cadre théorique que l’on connaît actuellement du
concept d’efficience (Roland Portrait, Poncet p.24).

En réalité, le concept d’efficience revêt plusieurs définitions. Et le pilier de la finance
moderne repose aujourd’hui sur la dimension informationnelle de l’efficience et sur les
anticipations rationnelles des agents. Nous distinguerons ici l’efficience informationnelle de
l’efficience allocative, qui fait état du calcul de l’allocation optimale entre l’épargne classique
et les marchés.
La première définition formelle de l’efficience informationnelle des marchés financiers est
donc proposée par Fama (1965) où l’atomicité des agents fait en sorte qu’aucun d’entre eux
ne puisse seul influer sur le prix du marché, et où le prix du marché agrège l’ensemble des
comportements des individus reflétant ainsi, à chaque instant, toute l’information pertinente et
disponible.

« […] sur un marché efficient, les actions conjuguées des nombreux opérateurs doivent
amener le prix réel à fluctuer au hasard autour de la valeur intrinsèque. Si les divergences
entre les prix réels et les valeurs intrinsèques sont systématiques plutôt que de nature
aléatoire, la connaissance de ces divergences doit aider les opérateurs intelligents à mieux
prédire le cheminement par lequel les prix réels vont se mouvoir en direction des valeurs
intrinsèques. […] Et bien que l’incertitude concernant les valeurs intrinsèques demeure, les
prix réels vont fluctuer aléatoirement autour de celles-ci » (Fama, 1965).

Ce qui explique qu’il est possible d’affecter une distribution de probabilité aux prix.
6L’apport substantiel de Samuelson (1965) consistera à montrer que les prix de marché ne se
contentent pas de fluctuer autour de leur valeur fondamentale, mais qu’ils en sont toujours
égaux.

Mais le concept d’efficience informationnelle tel qu’évoqué ci-avant reste trop général et
impossible à vérifier empiriquement. Fama (1970) proposera ainsi trois formes de l’efficience
informationnelle, qu’il complétera ensuite en 1991: L’efficience au sens faible, l’efficience
semi-forte, et l’efficience forte, sur lesquelles nous reviendront dans notre partie sur les tests
d’efficience.

Revenons, à la notion samuelsonienne de prix de marché toujours égaux à leur valeur
fondamentale. La différence apportée est loin d’être triviale. Car elle est lourde d’implications.
En effet, on peut toujours espérer tirer profit, par la spéculation, de la différence qui peut être
générée entre le prix et sa valeur fondamentale. Dans le cas où le prix et sa valeur
fondamentale sont toujours égaux, toute spéculation devient vaine.

En 1978, Jensen donnera une nouvelle définition de l’efficience informationnelle des marchés
financiers. « Un marché est efficient, relativement à un ensemble d’information donné, s’il est
impossible de réaliser des opérations profitables sur la base de cet ensemble d’information
[…] Par profit, on entend le taux de rentabilité ajusté au risque et net de tout. » Jensen (1978).

B. Les tests d’efficience

Comme nous l’avons souligné précédemment, le cadre théorique de l’hypothèse d’efficience
des marchés énoncée par Fama (1965) est longtemps resté trop générique, et par conséquent
difficile à tester empiriquement. Ce qui l’a amené à distinguer trois types d’efficience
informationnelle des marchés. Nous allons succinctement présenter deux des trois types
d’efficience informationnelle, en ayant soin de présenter plus en détail l’efficience faible, qui
siège au cœur de notre étude par la suite.

1. L’Efficience forte et semi forte

L’efficience forte stipule que les prix des marchés reflètent à chaque instant l’historique des
prix, l’information publique, ainsi que l’information privée. Les tests mettent en évidence des
7rendements anormaux après des décisions importantes concernant le titre considéré, mais non
rendues publiques (avant l’annonce d’une OPA mais après sa décision, par exemple).

L’efficience semi-forte stipule elle, que les prix des marchés reflètent à chaque instant, toute
l’information contenue dans l’historique des cours boursiers, et toute l’information publique.
Les tests tentent de détecter la présence d’éventuels rendements anormalement élevés sur les
périodes suivant une bonne nouvelle, ou anormalement faibles sur les périodes suivant une
mauvaise nouvelle. Si tel est le cas, l’anomalie d’efficience informationnelle est incompatible
avec l’efficience semi-forte.

« Une attitude raisonnable penche en faveur de l’efficience semi-forte des marchés. Selon
certaines études, il n’est pas possible de systématiquement tirer profit d’une information
connue de tous, pour réaliser des profits anormaux, si l’on tient compte des coûts de
transactions, et cela compte tenu de la rémunération du risque encouru ». (Pontrait et Poncet,
2008, p. 35)

2. L’Efficience faible

L’efficience au sens faible postule que l’ensemble des informations disponibles comprend
uniquement l’historique des prix, et par conséquent des rentabilités.

Les tests d’efficience faible cherchent à détecter une éventuelle auto-corrélation dans le temps
des rendements successifs des titres. S’il y a bien auto-corrélation, c'est-à-dire, si l’on peut
prévoir les rentabilités futures à partir des rentabilités passées, alors sous certaines conditions,
l’efficience se trouve invalidée. Deux types de tests sont utilisés pour aboutir :

a. Les tests directs

Des tests directs visant à déterminer l’efficience ont été réalisés par Fama & Blume (1966).
Leur test de « méthode des filtres » consistait essentiellement à comparer le marché avec un
portefeuille naïf. Leurs résultats aboutirent à la validation totale de l’efficience

8De même, Hakkio & Rush (1989) ont testé les relations inter-marchés pour déterminer si
l’interdépendance des cours permettait d’obtenir des profits anormaux. Ces tests réalisés au
moyen de méthodes de co-intégration, ont abouti à l’invalidation de l’Efficience.

D’autres tests directs ont permis de mettre en évidence des « anomalies » d’efficience
informationnelle des marchés, comme l’« effet taille » de Banz (1981), l’« effet janvier » de
Reinganum (1983), ou encore l’« effet vendredi 13 » de Kolb & Rodriguez (1987)

b. Les tests indirects

Les tests indirects sont en grande partie des tests de marche aléatoires ou de processus
stochastiques (cf glossaire) visant à vérifier si les rentabilités futures peuvent être déterminées
à partir des rentabilités passées.

Mais parmi l’abondante littérature visant à tester l’efficience faible des marchés, de plus en
plus d’études portent sur l’analyse technique, qui par essence n’a d’objet que la réalisation de
profits anormaux dans un environnement incertain, au moyen des informations uniquement
contenues dans les cours.

 De l’Analyse Technique et de ses critiques…

Depuis son apparition, dont la plus ancienne technique est attribuée à Charles Dow dans les
années 1800, l’analyse technique ne fait pas l’unanimité au sein de la communauté
académique. Notamment à cause de son manque de rigueur et de cadre théorique. Mais
aujourd’hui, ce formalisme prend corps dans un courant de recherche alternatif à la finance
néoclassique ou moderne, au sein de la finance comportementale (Orléan, 2008).

Pour proposer une définition de l’analyse technique, citons Benoît Mandelbrot (1997), qui dit
de l’ambition de ses praticiens, dans son ouvrage Fractal, hasard et finance p.137 :
« [l]es praticiens de l’ « analyse technique » ont l’ambition de prévoir l’avenir sur la base
des évolutions du passé. » Ce qui au passage, montre bien que l’analyse est un test
d’efficience faible. Puis, il poursuit la phrase suivante en clarifiant :
« Leurs méthodes sont subtiles, mais rarement décrites assez précisément pour permettre une
vérification. Dans les cas exceptionnels où l’on a pu les vérifier, leurs affirmations se sont
9