Les grands auteurs en finance
310 pages
Français

Vous pourrez modifier la taille du texte de cet ouvrage

Les grands auteurs en finance

-

Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus
310 pages
Français

Vous pourrez modifier la taille du texte de cet ouvrage

Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

UNE DEUXIEME EDITION EST PARUE EN 2017.


La finance a connu au cours des dernières décennies un flux d'innovations sans précédent avec l'apparition de nouveaux marchés et produits financiers.
Parallèlement, des progrès considérables ont été réalisés dans la connaissance des mécanismes financiers des organisations et du fonctionnement des marchés financiers. Comme dans toute discipline scientifique ces progrès ont pour origine des grands auteurs, dont un nombre significatif ont obtenu le prix Nobel. Cet ouvrage coordonné par Michel ALBOUY a pour objectif de présenter un condensé des apports des auteurs qui ont publié dans le domaine de la finance moderne et ont très fortement marqué l'évolution de cette discipline. Rédigés par une équipe de professeurs de finance ayant également de nombreuses publications à leur actif, ces onze chapitres consacrés chacun à un auteur, permettent de comprendre l'avancement des connaissances en : finance d'entreprise, marchés financiers, gestion de portefeuille, théorie financière...

Sujets

Informations

Publié par
Nombre de lectures 97
EAN13 9782847692679
Langue Français
Poids de l'ouvrage 1 Mo

Informations légales : prix de location à la page 0,0150€. Cette information est donnée uniquement à titre indicatif conformément à la législation en vigueur.

Exrait

Les grands auteurs en finance

Michel Albouy
Le logo qui figure sur la couverture de ce livre mérite une explication. Son objet est d’alerter le lecteur sur la menace que représente pour l’avenir de l’écrit, tout particulièrement dans le domaine du droit, d’économie et de gestion, le développement massif du photocopillage. Le Code de la propriété intellectuelle du 1 er juillet 1992 interdit en effet expressément la photocopie à usage collectif sans autorisation des ayants droit. Or, cette pratique s’est généralisée dans les établissements d’enseignement supérieur, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourd’hui menacée.
© Éditions EMS, 2003
Nous rappelons donc qu’il est interdit de reproduire intégralement ou partiellement sur quelque support que ce soit le présent ouvrage sans autorisation de l’auteur, de son éditeur ou du Centre français d’exploitation du droit de copie (CFC), 3, rue Hautefeuille, 75006 Paris (Code de la propriété intellectuelle, articles L. 122-4, L. 122-5 et L. 335-2).
9782912647801
Sommaire
Page de titre Page de Copyright Introduction I - Harry Markowitz ou la fondation de la finance moderne II - William Sharpe et la gestion de portefeuille III - Merton H. Miller : sa contribution à la finance d’entreprise IV - Eugene Fama et l’efficience des marchés financiers V - Michael C. Jensen : le pionnier de la finance organisationnelle VI - Myron Scholes : allocution prononcée à l’occasion de la remise du Doctorat Honoris Causa de l’Université Paris Dauphine VII - Fisher Black : sa contribution à l’évaluation des actifs conditionnels VIII - Robert C. Merton : L’apport de la modélisation en temps continu à la théorie financière moderne IX - Stewart C. Myers : une autre approche du financement des entreprises X - Stephen A. Ross et le modèle d’évaluation par arbitrage XI - Richard Roll : chronique d’un vrai – faux voyage Les auteurs Chez le même éditeur
Introduction
La finance a connu au cours des dernières décennies un flux très important d’innovations. Parallèlement, des progrès considérables ont été réalisés dans la connaissance des mécanismes financiers des organisations et du fonctionnement des marchés financiers. Comme dans toute discipline scientifique ces progrès ont pour origine des grands auteurs, dont un nombre significatif ont obtenu le prix Nobel.
Cet ouvrage a pour objectif de présenter un condensé des principaux apports des principaux auteurs ayant publié dans le domaine de la finance moderne. Rédigés par une équipe de professeurs de finance ayant à leur actif de nombreuses publications, les articles consacrés à chaque Grand auteur permettent de comprendre leur contribution à l’avancement des connaissances en finance d’entreprises et des marchés.
Présenter en dix ou douze chapitres les principaux apports de ceux qui ont contribué le plus à c’est que devenu la finance aujourd’hui était l’objet de la demande de nos collègues Gérard Charreaux, Patrick Joffre et Gérard Koening. Naturellement, choisir une dizaine d’auteurs parmi tous ceux, très nombreux, qui ont contribué au développement des connaissances en finance n’est pas une tâche aisée et exempte de critiques. Après un tour de table et plusieurs allers-retours entre les collègues sollicités pour rédiger une contribution, onze noms ont finalement émergé. Ces onze lauréats, si l’on peut dire compte tenu de leurs titres (six sont Prix Nobel), sont dans l’ordre de présentation 1 suivant :
– Harry Markowitz,
– William Sharpe,
– Merton Miller,
– Eugene Fama,
– Michael Jensen,
– Myron Scholes,
– Fisher Black,
– Robert Merton,
– Stewart Myers,
– Richard Roll,
– Stephen Ross.
Tous ces auteurs présentent la particularité d’avoir très fortement marqué l’évolution de la finance et d’avoir fait des contributions éminentes. En général, ces Grands auteurs sont connus pour avoir associé leur nom à une théorie ou une contribution majeure bien précise et il est tentant de vouloir les classer en fonction de leur champ théorique principal. Néanmoins comme le lecteur s’en rendra compte, la plupart de ces auteurs se sont intéressés autant à la finance d’entreprise que celle des marchés. Ils se sont aussi parfois intéressé à des questions plus larges que la finance.
Les présentations sont indépendantes et le lecteur pourra sans difficulté passer d’un auteur à l’autre dans l’ordre qu’il lui conviendra. La forme et le style des articles rédigés sur chaque Grand auteur varient fortement. De fait, on est loin de fiches de lectures standardisées dans le style mémento . Certains pourront le regretter et accuser le coordinateur de ce projet d’avoir failli à sa mission d’harmonisation. Mais s’agissant de parler de nos auteurs préférés en finance, nous avons préféré donner libre cours à nos collègues. C’est la raison pour laquelle il n’y a pas de plan type imposé et que chacun a pu s’exprimer à sa façon. Grâce à cette diversité d’exposés nous espérons maintenir en haleine le lecteur et restituer un peu de vivant dans cette matière un peu aride qu’est la finance.
Harry Markowitz, comme l’écrit Georges Gallais-Hamonno, a contribué à révolutionner la manière d’appréhender les questions financières à partir d’une idée force : tout actif financier peut être assimilé à une variable aléatoire. Il s’en suit que « le risque » d’un actif peut-être mesuré par l’écart-type des taux de rentabilité et qu’il devient possible de construire des portefeuilles optimaux appelés portefeuilles « efficients ». Les travaux d’Harry Markowitz ont servi de fondations pour la construction du célèbre modèle d’équilibre des actifs financiers (MEDAF) développé par la suite par Sharpe, Lintner et Mossin.
William Sharpe dont les travaux sont présentés par Gérard Hirigoyen est l’auteur associé à la mesure des performances des portefeuilles et un pionnier dans l’élaboration du modèle d’équilibre des actifs financiers. Sharpe a essentiellement élargi les travaux de Markowitz afin de déterminer de façon simplifiée la frontière efficiente en utilisant un modèle « diagonal ». Son nom reste associé au célèbre « ratio de Sharpe » encore utilisé pour classer la performance des fonds d’investissement.
Merton Miller dont j’ai l’honneur de présenter les travaux dans cet ouvrage est considéré comme l’un des pères de la finance moderne. On lui doit avec Franco Modigliani deux théorèmes célèbres en matière de structure de financement et de politique de dividende des firmes cotées. Ils ont été les premiers à appliquer les théories économiques aux entreprises et le célèbre raisonnement d’arbitrage pour démontrer leurs propositions qui ont révolutionné la vision de la finance d’entreprise.
Eugène Fama, comme le rappelle Jacques Hamon est fondamentalement associé à la théorie de l’efficience informationnelle des marchés financiers. En fait les travaux de Fama couvrent toutes les décisions financières en plaçant le marché au centre de l’analyse. Comme le lecteur pourra le découvrir, il se dégage des travaux de Fama une grande cohérence et l’idée que le marché est une interface très efficace pour faciliter les prises de décisions financières. Pour Fama, les cours de bourse ont un sens ; ils sont le reflet et l’expression de l’activité économique.
Michael Jensen, comme le souligne Gérard Charreaux, occupe une place à part parmi les grands auteurs en finance. Non pas par l’importance de sa seule contribution scientifique, mais en raison de la nature de ses travaux qui le positionne de façon hétérodoxe, en raison de son engagement idéologique libéral. Ainsi la diffusion du critère de la valeur actionnariale comme objectif de gestion trouve en partie son origine dans les écrits normatifs de Jensen.
C’est à travers l’allocution prononcée par Bertrand Jacquillat à l’occasion de la remise du Doctorat Honoris Causa de l’Université Paris IX Dauphine à Myron Scholes que le lecteur découvrira l’œuvre de cet auteur incontournable pour tous ceux qui s’intéressent aux actifs conditionnels. En effet, Myron Scholes est avant tout connu pour le développement du célèbre modèle d’évaluation des options de Black et Sholes et qui constitue l’une des avancées les plus spectaculaires de l’économie financière des vingt dernières années.
Bien évidemment, il était impensable de présenter l’œuvre de Myron Scholes sans celle de Fisher Black. Pierre Batteau nous rappelle dans sa contribution que le célèbre article de 1973 The Pricing of Options and Corporate Liabilities avait été rejeté deux fois avant d’être publié par le Journal of Political Economy . Grâce à la perspicacité de Pierre Batteau les lecteurs pourront découvrir l’ensemble de l’œuvre de Fisher Black ainsi qu’un échange épistolaire fort instructif entre Milton Friedman, le maître du monétarisme, et Fisher Black.
Robert Merton, comme le rappellent à juste titre Patrick Navatte et Hélyette Geman, tient une place à part dans le concert des grands auteurs en finance pour avoir introduit en finance la modélisation en temps continu et le calcul stochastique. On lui doit notamment une extension de la méthode de valorisation des options mis au point par Black et Scholes à l’analyse d’autres actifs contingents.
Comme l’explique Edith Ginglinger dans son article, les travaux de Stewart Myers ont permis d’approfondir les résultats de Modigliani et Miller. Myers est notamment à l’instigation du développement de deux théories permettant d’expliquer le choix d’une structure financière : la théorie du compromis (static trade-off theory) et la théorie du financement hiérarchique (pecking order theory) . La théorie du compromis consiste à prendre en compte les coûts d’agence liés aux conflits entre actionnaires-dirigeants et la théorie du financement hiérarchique s’appuie sur l’existence d’asymétries informationnelles.
Les recherches de Stephen Ross présentées dans cet ouvrage par Patrice Fontaine portent sur les marchés financiers, la finance d’entreprise et l’économie de l’incertain. Il est notamment connu pour ses travaux sur le modèle d’évaluation par l’arbitrage (APT) et sur la valorisation des actifs conditionnels. Mais Ross est également un précurseur de l’utilisation de la théorie des signaux en finance d’entreprise.
Pour terminer, Eric de Bodt et Michel Levasseur nous proposent une chronique d’un vrai-faux voyage à UCLA (University of California at Los Angeles) à la recherche de Richard Roll l’un des fondateurs des études d’évènements. À la question « quel est votre meilleur papier ? » Richard Roll répond que celui qui a marqué le plus les esprits est certainement A Critique of the Asset Pricing Theory’s Tests , mais qu’il aime particulièrement The Hubris Hypothesis of Corporate Takeovers (un de mes article préféré en matière de fusions-acquisitions).
Bien entendu, je tiens à remercier vivement tous mes collègues qui ont accepté de faire une contribution pour cet ouvrage. J’espère que les lecteurs seront nombreux à partager leur enthousiasme et que ces textes permettront d’éclairer sous un angle nouveau les contributions scientifiques de ces « monstres sacrés » de la finance.
Michel ALBOUY
I
Harry Markowitz ou la fondation de la finance moderne
Georges Gallais-Hamonno
« Il n’y a de science que le mesurable »
Henri Poincaré
Par une après-midi ensoleillée de printemps, dans la librairie de la Graduate Business School de l’Université de Chicago, un grand jeune homme lit le manuel d’analyse financière le plus réputé à l’époque : The Theory of Investment Value de John Burr Williams 2 .
Quand il a fini sa lecture, il pense : « c’est étrange, l’auteur raisonne comme si tous les flux futurs d’une entreprise, ses dépenses et ses recettes à venir, sont certains . Or, c’est faux : il est évident qu’ils sont incertains . Et c’est justement cette incertitude qui fait que les actions sont risquées » Harry Markowitz venait de mettre le doigt sur le problème central de la finance – le risque – et il allait consacrer sa thèse à la manière dont « le risque boursier » peut être traité de manière rigoureuse.
Markowitz a révolutionné la manière d’appréhender les problèmes financiers, qu’ils relèvent de la bourse ou bien des entreprises, à partir d’une idée-force et de ses deux premières implications. Cinquante ans plus tard 3 , cette idée-force n’a pas encore fini de produire ses effets !
Cette idée-force est le fait d’assimiler un actif financier à une variable aléatoire. Il s’en suit que le « risque » d’un actif peut-être mesuré par l’écart-type et qu’il devient possible de construire des portefeuilles « optimaux » appelés portefeuilles « efficients ».

1. L’ASSIMILATION D’UN ACTIF À UNE VARIABLE ALÉATOIRE
Comme la plupart des grandes découvertes scientifiques, l’idée semble a posteriori étonnamment simple et évidente : l’évolution dans le futur de la valeur d’une entreprise – telle qu’elle se reflète dans les cours boursiers de son action cotée en Bourse – est soumise à un grand nombre de facteurs positifs ou négatifs dont la résultante est incertaine. Or, dans la « boîte à outils » de l’économiste, il existe un outil qui correspond à ce type de situation : une variable aléatoire qui suit la loi de distribution la plus connue et la plus facile à manipuler, la loi « normale » .

1.1. La distribution normale
Au XIX e siècle, deux mathématiciens qui travaillaient sans se connaître, le Français Laplace et l’Allemand Gauss ont démontré que n’importe quel phénomène entraîné par des causes multiples et indépendantes entre elles suit la loi de distribution qui porte désormais leurs noms. Cette loi est tellement « générale », s’applique à des phénomènes si variés et si différents les uns des autres qu’on l’a baptisée « normale » et qu’elle sert de référence aux autres lois statistiques.
De manière plus spécifique, une distribution « normale » met en relation les différentes valeurs que peut prendre un phénomène (les « observations ») avec le nombre de fois (en %) où chaque valeur apparaît (sa « probabilité d’occurrence » ou bien sa « fréquence relative »). Sa représentation graphique est bien connue : c’est la courbe en cloche ( cf. l’encadré 1).

Encadré 1 : La loi normale en finance


Outre sa très grande généralité, l’intérêt d’une distribution normale est d’être extrêmement simple : elle est complètement décrite par les deux paramètres :
– la moyenne arithmétique de la valeur des observations (µ sur le graphique),
– l’écart-type des valeurs des observations (σ).
La moyenne arithmétique indique la « tendance centrale »  ; c’est-à-dire la valeur rencontrée la plus habituelle et la plus nombreuse (d’où la « bosse », indiquant la fréquence relative la plus élevée).
L’ écart-type indique la « dispersion » des résultats autour de cette « tendance centrale » avec une caractéristique intéressante : 95 % des observations sont comprises dans l’intervalle : valeur moyenne + 2 fois l’écart-type valeur moyenne – 2 fois l’écart-type
Pour Markowitz « l’observation » pertinente est non pas le cours de l’action lui-même (en raison des opérations de capital qui peuvent modifier son montant sans modifier la valeur de l’entreprise), mais sa rentabilité 4 , c’est-à-dire la variation relative du cours durant une période de temps dont le calcul est très évident :
(1) Rentabilité (i) = [Cours (i)t - Cours (i) t-1 + Div (i) t] ÷ Cours (i) t-1
avec :

i : l’action (ou l’actif) i ; t : jour, semaine, mois, année... Div : dividende (ou coupon obligataire) reçu durant la période t.

1.2. La mesure des caractéristiques d’une action : sa rentabilité et son risque
Le grand avantage de l’appel à la loi normale est qu’elle permet de mesurer les caractéristiques financières de toute action 5 dans un cadre conceptuel cohérent.
En effet la loi normale est entièrement décrite par deux paramètres, la moyenne arithmétique de la valeur des observations et l’écart-type desdites valeurs. On voit tout de suite le lien qui existe entre ce paramètre « statistique » et la réalité « boursière ».
L’achat d’une action est évidemment motivé par l’ espoir d’une certaine rentabilité. Or la moyenne arithmétique d’une distribution, appelée « espérance mathématique » , indique la « tendance centrale » des observations ; c’est-à-dire la valeur la plus habituelle et la plus nombreuse.
Par contre, les actions de différentes sociétés ne fluctuent pas à la hausse comme à la baisse de la même manière. Aux actions dites « de père de famille » aux fluctuations limitées s’opposent les actions « spéculatives » aux fluctuations amples et brutales. Or l’écart-type d’une distribution indique justement la dispersion des résultats autour de la « tendance centrale » ; c’est-à-dire le nombre de fois où une rentabilité différente de la rentabilité « espérée » est obtenue. De manière plus précise, dans le cas d’une loi normale, 95 % des observations sont comprises dans l’intervalle : (Moyenne (tendance centrale) + deux fois l’écart-type (Moyenne (tendance centrale) – deux fois l’écart-type.
En d’autres termes, ce simple chiffre 6 – l’écart-type – est une excellente (et simple) mesure du risque d’une action .
Ces deux mesures permettent de comparer et, cas échéant, de hiérarchiser les actifs entre eux.
Par exemple, si deux actions ont une même rentabilité attendue de 10 % mais l’une a un écart-type de 2 % et l’autre de 5 %, cela signifie que 95 % des rentabilités annuelles de la première action seront comprises entre : (moyenne + 2 ET = 10 % + (2 × 2 %) = 14 % (moyenne – 2 ET = 10 % (2 × 2 %) = 6 %
tandis que l’écart-type de 5 % de la seconde donne un intervalle compris entre 20 et 0 %. En conséquence la dispersion des rentabilités de la seconde action est beaucoup plus « large » autour de sa « moyenne » ; dans le cas des « bonnes » années, la rentabilité » obtenue sera nettement plus élevée que la moyenne de 10 % mais cette rentabilité sera à l’inverse beaucoup plus éloignée de la moyenne lors des « mauvaises » années.
Cet aspect risqué est renforcé par ce que l’on appelle aujourd’hui les « valeurs extrêmes », c’est-à-dire les 1 % d’observations extérieures à l’intervalle « moyenne plus ou moins trois fois l’écart-type ». Dans notre exemple, cela signifie qu’en cas de « boom » (avec une probabilité d’occurrence de 0,5 %), la rentabilité de la seconde action sera supérieure à 25 % (contre 16 % pour la première) ; mais en cas de « krach » (avec la même probabilité de 0,5 %), sa rentabilité sera inférieure à – 5 % (contre + 4 % pour la première). Indéniablement la seconde action est plus risquée que la première !
En fait les rentabilités boursières annuelles « réelles » (par opposition à cet exemple pédagogique) sont dramatiquement supérieures, tant pour la rentabilité moyenne obtenue que pour la dispersion autour de cette moyenne.

Tableau 1.
Rentabilité – risque des actifs boursiers français (données nominales annuelles) Rentabilités des actions françaises sur un siècle, 1900-2000 Moyenne Risque (Écart-type) % % 1900-1949 11,6 22,3 1950-2000 15,8 24,4 1900-2000 13,6 24,8 Rentabilité comparée des trois actifs « de base », 1950-1998 Moyenne Risque (Écart-type) % % Actions 15,2 24,4 Obligations 10,3 6,4 Or (Napoléon) 6,9 27,4
La première partie du tableau met en lumière l’importance du risque des actions qui ont un écart-type de 25 %. Ce chiffre extrêmement important reflète l’existence bien connue des « booms » à la hausse et des « krachs » à la baisse. On constate que ce niveau de risque n’a guère varié durant le XX e siècle : 22 % avant la Seconde Guerre Mondiale, 24 % après.
La seconde partie du tableau corrobore ce que chacun sait : les actions rapportent plus, en moyenne, que les obligations (15% contre 10%) mais la dispersion de leurs résultats annuels est dans le rapport de 1 à 4 (écart-type de 24 % contre 6 %). Il suffit d’ailleurs de regarder les variations annuelles des actions pour constater des rentabilités « dramatiques » : + 60 % en 1983, + 50 % en 1978 et 1986, – 26 % en 1974, – 27 % en 1987 et – 23 % en 1990. Il est normal que les actions soient réputées plus risquées que les obligations ! Quant à l’or, sous sa forme boursière de la pièce de 20 francs, « le napoléon », sa rentabilité moyenne est très faible (7 %) et son risque dramatiquement élevé (27 %). On comprend la désaffection qu’il connaît actuellement.
Toutefois les particuliers comme les institutions détiennent généralement non pas une unique action mais plusieurs ; ils détiennent un portefeuille. Quelles sont les conséquences sur l’analyse du portefeuille de l’assimilation des actions à des variables aléatoires ?

2. LA CONSTRUCTION DE PORTEFEUILLES « À LA MARKOWITZ »
Harry Markowitz « tire le fil » de son idée-force : un portefeuille d’actions est assimilable à une combinaison de variables aléatoires dont on peut mesurer à l’avance la rentabilité espérée et le risque (à courir). En fonction des actions disponibles et de leur couple « rentabilité-risque », on peut constituer toute une série de portefeuilles « optimaux », (appelés « efficients ») parmi lesquels le particulier n’a qu’à choisir en fonction du degré de risque qu’il est prêt à subir. Ce faisant, Markowitz met en lumière le rôle crucial d’un élément inattendu, la covariance .

2.1. Le portefeuille en tant que combinaison de variables aléatoires
À partir du moment où une action est considérée comme une variable aléatoire, un portefeuille ne peut être qu’une combinaison de variables aléatoires. Il suffit alors d’appliquer les règles gouvernant les variables aléatoires et qui sont enseignées en deuxième année de faculté dans les cursus d’économie :
– La rentabilité attendue du portefeuille est la moyenne des rentabilités attendues des actions individuelles inclues dans le portefeuille pondérées par le poids relatif (en valeurs) de chacune desdites actions.
Ceci est trivial et parfaitement intuitif. Par contre le risque du portefeuille mesuré par sa variance 7 est un peu plus subtil 8 .
En effet la variance d’un portefeuille est l’addition de deux éléments :
• la somme (pondérée par les poids au carré) des variances individuelles,
• la somme (pondérée par le produit des poids) des covariances individuelles – cette somme étant d’ailleurs comptée deux fois.
Le premier élément semble tout à fait trivial : si le portefeuille est rempli d’actions risquées (c’est-à-dire à variance élevée), on peut s’attendre à ce qu’il soit plus risqué qu’un portefeuille rempli d’actions « de père de famille» à faible variance.
Le second élément est tout à fait novateur. La covariance mesure l’intensité avec laquelle deux phénomènes aléatoires – ici nos rentabilités – co -varient, c’est-à-dire varient ensemble. Cette co-variation peut être a priori très forte, par exemple dans le cas de deux actions du même secteur ou bien liées techniquement (construction automobile et fabrication de pneus...) ; mais elle peut être faible dans le cas de deux actions extrêmement différentes (Club Méditerranée – loisirs – et Danone – alimentation...) ; elle peut également (mais rarement) être négative (mines d’or sud-africaines et des actions industrielles...).
Avant de revenir sur les conséquences de ce phénomène de la covariance, il faut insister sur l’implication directe de cette formule. Elle signifie qu’il est maintenant possible de mesurer à l’avance la rentabilité attendue et le risque couru par toute combinaison possible d’actions composant un portefeuille à condition d’avoir à sa disposition les trois données nécessaires. Estimer les rentabilités « attendues » est le travail des analystes financiers qui étudient les sociétés cotées. Estimer les variances et covariances « à venir » est nettement plus ardu mais de nombreuses études ont montré que leurs mesures à partir des séries chronologiques « passées » tendent à être assez stables sur moyenne période et peuvent donc être utilisées.

2.2. La « loi de la covariance moyenne » ou « l’effet de Markowitz »
Vingt-cinq ans après sa thèse soutenue en 1976, Markowitz revient sur la conséquence pratique de la prise en compte des covariances individuelles dans la mesure du risque d’un portefeuille. Il met alors en lumière un phénomène contre-intuitif qu’il baptise « loi de la covariance moyenne ».
Dans le cas particulier où les actions détenues dans le portefeuille ont un poids égal, la formule « générale » du risque du portefeuille est modifiée et devient la somme de deux éléments plus simples 9  : Risque du portefeuille = somme de
• la variance moyenne des titres détenus divisée par le nombre de titres
• la covariance moyenne des titres détenus multipliée par le rapport [N – 1 ÷ N], N étant le nombre d’actions du portefeuille.
À première vue, ce résultat ne semble qu’une simplification parfaitement intuitive : le risque du portefeuille dépend du risque moyen des titres sélectionnés et du risque engendré par la moyenne de leurs co-variations...
Il n’en est rien. En effet, si le nombre d’actions détenues dans le portefeuille augmente, la moyenne des variances individuelles tend vers zéro et il ne reste que le risque créé par la moyenne des covariances . En d’autres termes, « la loi de covariance moyenne », (que Markowitz a omis d’expliciter) est la suivante :

Encadre 2 : La mesure du risque d’un portefeuille
Soit une combinaison – le portefeuille P – de deux variables aléatoires, l’action A et l’action B.
Les paramètres à prendre en compte sont les suivants :
• R a , R b , R p = rentabilités de A, de B et de P (pour simplifier l’écriture la périodicité du calcul de la rentabilité (t) est omise, mais on raisonne sur une série chronologique de rentabilités périodiques).
• ER a , ER b , ER p = espérance des rentabilités de A, de B et de P, c’est-à-dire leur rentabilité attendue (mesurée, en pratique, par leur moyenne arithmétique).
• w a , w b = poids relatif (en valeur) dans le portefeuille de chacun des titres A et B.
• w a + w b = 1 car le portefeuille est complètement « rempli ».
• E : espérance mathématique
Question : quelle est la formule du risque du portefeuille, c’est-à-dire quelle est la variance de P ?
Par définition :

(1)
Les éléments constitutifs de droite sont par définition :

(2)

(3)
Donc la variance peut s’écrire :

(4)
Les termes concernant chacune des actions sont regroupés et les poids sont mis en facteurs :

(5)
On élève au carré :

(6)
On prend l’espérance mathématique de cette somme de trois éléments :

(7)
Par définition : E (R a – ER a =) = Variance des rentabilités de l’action A E (R a – ER a ) (R b – ER b ) = covariance des rentabilités des actions A et B Donc :

Encadré 3 : Démonstration de la loi de covariance moyenne
L’encadré 2 a démontré que :


Avec w i = poids du titre i

Var i = variance du titre i Cov ij = covariance des titres i et j
Il faut souligner qu’un portefeuille de N titres se compose de [(N 2 – N) ÷ 2] covariances individuelles car il faut « retirer » des N 2 couples de titres les N covariances de chaque titre avec lui-même , c’est-à-dire les N variances individuelles. Il faut aussi diviser par 2 parce que chaque covariance individuelle intervient deux fois.
Hypothèse de Markowitz : même poids pour chaque action soit : w i = w j = Par définition


(1)
Les éléments constants sont mis en facteurs :


(2)
Détaillons chacun des termes de droite


(3)


(4)
• Numérateur :


(5)


(6)


(7)


(8)


(9)
Résultat : par les équations (3) et (9) :


(10)


(11)
Source  : H. Markowitz ne présente pas sa démonstration dans « Markowitz Revisited », Financial Analyst Journal octobre 1976.
L’auteur du présent chapitre l’a présentée en annexe de sa traduction (en collaboration) dudit article. « Relecture de Markowitz » Revue Analyse Financière , 1977, n o 2.
« Le risque d’un portefeuille bien diversifié tend vers la moyenne des covariances des titres inclus dans le portefeuille » .
Le résultat étonnant est que ce phénomène de convergence du risque du portefeuille vers la covariance moyenne des actions détenues est immédiat et que la convergence est quasiment atteinte avec une vingtaine de titres 10  !
Ce résultat a une implication très forte pour la constitution pratique du portefeuille d’un particulier : le critère « de l’antiquaire – décorateur » est à prohiber. Cette merveilleuse expression est due au Professeur Richard Brealey de la London Business School. La tentation des gérants de portefeuilles est d’inclure dans un portefeuille donné une seule catégorie d’actions correspondant au degré de risque que le client peut ou veut assumer. La « veuve de Carpentras » n’aura que des titres de « père de famille » tandis que le jeune cadre dynamique n’aura que des titres « de croissance », voire spéculatifs... Le gérant se comporte exactement comme un « antiquaire – décorateur » qui, selon les souhaits de ses clients, ne meuble un salon qu’en style Empire ou bien en style Art Nouveau... Ce faisant, le gérant ne prend en compte que les variances individuelles et ignore l’influence des covariances. Il est alors possible que le portefeuille de la « veuve de Carpentras » ait un niveau total de risque plus élevé que celui du portefeuille du «jeune cadre dynamique »... ! Bref, contrairement aux apparences, ce qui compte n’est pas le risque total (la variance) des titres détenus mais leurs co-variations entre eux.

2.3. La frontière d’efficience et les portefeuilles optimaux
Toute l’information et les anticipations sur les résultats des sociétés cotées étant résumées et mesurées par leurs variances et covariances, il reste à déterminer le portefeuille « optimal » que Markowitz appelle « le portefeuille efficient » et qui est défini de façon évidente : c’est le portefeuille qui donne la rentabilité maximale pour un niveau de risque donné .
Markowitz montre qu’il s’agit d’un problème d’optimisation sous contraintes tout à fait classique. La seule remarque à faire est que le raisonnement des mathématiciens est inverse de la définition ci-dessus (mais aboutit, évidemment, au même résultat) : il s’agit de trouver la composition du portefeuille qui minimise sa variance (son risque) pour un montant voulu de rentabilité (contrainte).
L’encadré 4 présente quelques remarques techniques pour le lecteur intéressé par les aspects formels. Sous l’angle technique, il suffit de dire qu’il s’agit « d’inverser » la matrice des variances-covariances. Cette matrice est composée par la série des variances (sur la diagonale) et par la série des covariances (de part et d’autre de la diagonale) qui apparaissent deux fois. C’est-à-dire que la dimension de cette matrice carrée augmente très vite en fonction du nombre d’actions prises en considération :
– 10 actions = 100 chiffres (10 variances et deux fois 45 covariances) – 100 actions = 10 000 chiffres (100 variances et deux fois 4 950 covariances) – 500 actions = 250 000 chiffres (500 variances et deux fois 124 750 covariances)
Markowitz raconte qu’il voulait présenter deux exemples dans sa thèse, l’un avec cinq actions, l’autre avec dix actions. Il effectue toutes les démarches nécessaires pour avoir accès au « centre de calculs informatiques » et, enfin, il peut faire tourner son programme d’optimisation durant un week-end. Mis en route le samedi matin, il a récupéré les portefeuilles constitués à partir de cinq actions le dimanche après-midi ! En conséquence, il a décidé que sa thèse n’avait pas véritablement besoin d’un second exemple avec dix actions 11  !
La meilleure manière de présenter cette invention semble être d’utiliser la méthode graphique.
Le graphique 1 ci-dessous présente la série des portefeuilles « efficients » , c’est-à-dire les plus rentables pour chaque niveau de risque. Cette série est appelée la « frontière efficiente » puisque, par définition, il n’est pas possible de trouver une combinaison d’actions qui lui soit supérieure.

Encadré 4 : Quelques remarques techniques sur le calcul des portefeuilles efficients
1 – Le problème technique est de trouver le portefeuille dont la variance est minimale sous au moins deux contraintes :
• obtenir un certain niveau de rentabilité : ER*
• que le portefeuille soit complètement « rempli », c’est-à-dire que la somme des poids des titres soit égale à un : Σ w i = 1
On peut rajouter autant de contraintes que nécessaires en fonction de la réglementation concernant la diversification du portefeuille, la possibilité ou non d’effectuer des ventes à découvert (w i < o)...
2 – Les calculs sont les suivants si on écrit les données sous forme de matrice jacobienne :
soit :

C = la matrice des variances covariances C -1 = l’ inverse de la matrice des variances covariances W = le vecteur (colonne) des poids (w i ) : c’est l’inconnue K = le vecteur (colonne) du résultat des contraintes I = la matrice unitaire
Calculs :


3 – Le résultat se présente sous la forme de n équations donnant les poids w i de chaque titre en fonction de l’espérance de rentabilité (ER*) du portefeuille. Ces équations sont de la forme :

w i = c i + d i ER*
avec c i et d i des constantes pour chaque titre i
Soit :


4 – Pour obtenir la série des portefeuilles efficients et la frontière, il suffit de faire varier ER*, en partant du portefeuille le plus rentable et le plus risqué (PMAX sur le graphique) et en décroissant jusqu’au moment où on trouve le portefeuille le moins risqué et le moins rentable (PMin du graphique).


Les axes sont la rentabilité attendue et le risque (mesuré par l’écart-type). Les croix représentent les actions individuelles. La courbe continue représente la série des portefeuilles efficients recherchés. Trois de ces derniers sont à souligner. Le portefeuille « PMax » est celui qui a simultanément la plus forte rentabilité et le plus fort risque ; il est évidemment composé à 100 % par le titre individuel qui possède cette double caractéristique. Le portefeuille « PMin » est le portefeuille efficient qui possède le risque (et la rentabilité) la plus faible. Toute la série des portefeuilles en dessous de ce PMin sont disqualifiés car « sous-optimaux » puisqu’il existe un portefeuille plus rentable pour le même montant de risque. Mais le résultat tout à fait révolutionnaire est représenté par le fait que tous ces portefeuilles efficients sont plus rentables que les actions les composant pour un même niveau de risque (par exemple B par rapport à B’) ou bien, inversement, moins risqués pour une même rentabilité espérée (par exemple C par rapport à B’). Ce stupéfiant résultat est la conséquence de l’influence des covariances.

2.4. Une frontière efficiente empirique 1996-2000
« The proof of the pudding is in the eating » disent les anglais. Grâce au progrès des ordinateurs, la procédure d’optimisation que constitue le calcul d’une frontière efficiente n’est plus un problème aujourd’hui et il est possible de présenter au lecteur un petit exemple à titre illustratif 12 .
Les soixante rentabilités mensuelles entre la fin 1995 et la fin 2000 de sept actions du CAC-40 ont été relevées dans la base de données Datastream. Leurs caractéristiques financières « à la Markowitz » sont présentées dans le tableau 2 .

Tableau 2 .
Caractéristiques des actions sélectionnés (1996-2000)

En fait, ces actions n’ont pas été choisies au hasard mais sur la base de deux critères, qui ont pour but de magnifier « l’effet de covariance ». D’abord couvrir le spectre des couples rentabilité-risque existant au sein des actions composant le CAC-40. Comme les données recueillies sont mensuelles , il est nécessaire de les annualiser pour que les chiffres présentés soient « compréhensibles ». C’est ainsi que le couple rentabilité-risque le plus faible est celui d’Air Liquide avec une rentabilité annuelle moyenne sur ces 5 ans de 13 % et un risque de 20 % contre le futur portefeuille « maximum » représenté par Bouygues qui a eu une rentabilité annuelle moyenne de 47 % (!) avec un risque de 43 % (!).
Le second critère est le fait d’inclure des actions « inférieures » (dites « dominées » en langage technique). Par exemple AGF est « inférieure » à ACCOR car, pour une même rentabilité (24 % par an), son niveau de risque est supérieur (26 % contre 25 %) ; ACCOR est « inférieur » à Casino car son risque est un peu plus élevé (27 % contre 26,7 %) et sa rentabilité beaucoup plus faible (20 % contre 24 %). A priori , l’inclusion de titres « inférieurs » dans un portefeuille ne peut que détériorer ses performances, sauf si le jeu des covariances sur-compense cet handicap .
Pour donner un aperçu des niveaux des covariances, la moyenne des six covariances de chacune des actions avec les six autres est présentée. Elles sont très faibles, partiellement parce qu’il s’agit de co-variations mensuelles. Deux groupes se détachent ; quatre actions ayant une covariance moyenne de 1,4 (Accor, Bouygues, l’Oréal et Suez) et trois actions ayant une covariance moyenne nettement plus faible : 0,8 pour Air Liquide et 0,5 pour les AGF et Casino. Fait exceptionnel à noter : un covariance négative (c’est-à-dire très avantageuse) entre Casino et Suez – ce qui tendra à compenser la situation de Suez par rapport à Casino, situation d’infériorité relative puisque Suez est presque aussi risquée (25 % contre 26,7 %) pour une rentabilité nettement plus faible (24 % contre 36 %).
Le graphique 2 visualise les résultats qui sont pédagogiquement superbes : le jeu des covariances conduit à ce que les portefeuilles optimaux (« efficients ») soient nettement supérieurs (« dominants ») par rapport aux actions individuelles : ces portefeuilles sont nettement plus rentables et nettement moins risqués puisque la frontière est fortement décalée sur la gauche.
Par construction, la frontière efficiente représente un nombre infini de portefeuilles efficients – tous les portefeuilles qui ont eu une rentabilité mensuelle comprise entre 2,00 % et les 3,90 % de Bouygues, et leur nombre n’est limité que par le degré de précision voulu pour le montant recherché de rentabilité. Cinq portefeuilles « représentatifs » ont été calculés et le tableau 3 présente leurs caractéristiques et composition.
Détaillons rapidement ces résultats (en données annuelles) qui illustrent parfaitement ce qui a été dit ci-dessus 13 .
Le portefeuille à la rentabilité de 18 % est bien un portefeuille « inférieur » (dominé) , puisqu’il existe un portefeuille de même niveau de risque (15 %) sur la branche supérieure de la frontière avec une rentabilité nettement plus élevée (environ 32 %).

Frontière efficiente. Cinq actions du CAC-40, 1996-2000
(données mensuelles)

Tableau 3 .
Caractéristiques et composition des portefeuilles efficients représentatifs

Le portefeuille à la rentabilité de 24 % est le portefeuille à risque minimum (13,2 %). Caractéristique étonnante : les sept actions en font partie, même celles qui sont le plus « éloignées » en termes de rentabilitérisque : Casino avec un poids de 21 %, l’Oréal et Bouygues pour 4 % chacune. Ceci montre bien la puissance de « l’effet de covariance ».
Cet « effet de covariance » explique la disparition progressive des actions dans la composition des portefeuilles à rentabilité et à risque plus élevés. Accor, titre dominé comme cela été vu, disparaît du portefeuille à rentabilité de 30 %. C’est le tour de Air Liquide pour le portefeuille à rentabilité de 36 % parce que sa rentabilité (13,2 %) en est trop éloignée. Puis, pour la même raison, les AGF et Suez pour le portefeuille à rentabilité de 42 %.
Enfin, par construction et par définition logique, le « dernier » portefeuille efficient est composé par 100 % de l’action simultanément la plus rentable (46,8 %) et la plus risquée (42,6 %), c’est-à-dire Bouygues.

En fait la soutenance de la thèse de Markowitz se passe mal. Un des deux suffragants est la « star » du Département d’Économie de l’Université de Chicago, Milton Friedman. Ce dernier ne cesse de répéter durant la soutenance : « Voyons, Harry, nous ne pouvons pas vous donner un doctorat d’ économie car votre travail n’est pas de l’économie, ce ne sont pas des mathématiques et ce n’est pas non plus de la gestion ! ». Une fois, un peu agacé, le directeur de la thèse, Jacob Marschak, rétorque « Ce n’est pas non plus de la littérature ! ».
Milton Friedman a quelques circonstances atténuantes car l’originalité des idées déteint sur leur présentation 14 . Le raisonnement est parfois inattendu. Tout spécialement l’utilisation, pour expliquer les probabilités des différentes rentabilités des actions des « roues de la fortune » utilisées par les forains, détone dans une thèse où les mathématiques et l’informatique jouent un si grand rôle. Mais c’est surtout le « fond » qui a dû désorienter ce spécialiste des phénomènes monétaires – et non du marché boursier : les idées et leurs applications aux actions sont complètement nouvelles et ne se « raccrochent » à aucune analyse ou théorie antérieure. Ce phénomène est d’ailleurs corroboré par la quasi absence de références bibliographiques – autre aspect formel incongru.
Bref, Milton Friedman est à cent lieues d’imaginer que quelques décennies plus tard, il retrouverait cet impétrant à Stockholm lorsque le Comité Nobel, pour fêter les 100 ans du Prix, invitera tous les Nobélisés vivants !
En attendant, Harry Markowitz passe un mauvais moment à transpirer dans le couloir pendant que le jury délibère. Au bout de quelques minutes la porte s’ouvre, Jacob Marschak sort et, en souriant, lui tend la main: « Congratulations, Doctor Markowitz ! » .

Références biographiques 15
Harry Markowitz est né en 1927 à Chicago de parents propriétaires d’une petite épicerie.
Gamin, il a trois passe-temps : le baseball, le violon et la lecture. Au lycée (Collège) , il commence à lire les philosophes dans le texte et il est spécialement marqué par la manière de raisonner de David Hume et de Darwin. Il continue de lire les philosophes durant les deux années de Premier Cycle à l’Université de Chicago. Faisant le Second Cycle en économie, ce qui l’intéresse le plus est tout ce qui touche à « l’économie de l’incertain » et à l’ « Activity analysis » qui lui est enseignée par Koopman.
Après sa thèse en 1952, il est embauché par la Rand Corporation qui était (et qui est encore) la société d’études la plus importante et la plus célèbre aux États-Unis. Il y approfondit les techniques d’optimisation.
Durant l’année universitaire 1955-1956, il est invité par James Tobin à la Fondation Cowles pour transformer sa thèse en ouvrage – celui qui est publié en 1959.
À partir de ce moment là, la vie professionnelle de Harry Markowitz devient hétérodoxe. Ses intérêts et compétences intellectuels sont les mêmes : l’application des techniques mathématiques ou informatiques à des problèmes pratiques, tout spécialement les problèmes posés aux entreprises par le fait de prendre des décisions en situation d’incertitude. Mais Harry Markowitz va effectuer ces applications dans des Départements de Recherche privés et non pas universitaires.
On peut diviser sa vie professionnelle en deux parties.
Pendant 25 ans – en ne comptant pas l’année passée à la Fondation Cowles (à ré-écrire et approfondir sa thèse), il ne va plus s’occuper de finance mais de ces applications pratiques. Essentiellement, au sein de la Rand Corporation de 1952 à 1968 et au Département de Recherche d’IBM de 1970 à 1980.
Son plus grand succès est la mise au point d’un logiciel, appelé SIMSCRIPT, qui diminue le temps nécessaire pour programmer un logiciel de simulations.
Durant ce quart de siècle, Harry Markowitz n’a presque aucun contact avec l’Université, si ce n’est sous la forme d’une année sabbatique à l’Université de Californie à Los Angeles (UCLA) en 1968-69 et de deux années passées à la Wharton School of Finance de 1972 à 1974, ce dernier séjour donnant lieu à deux articles publiés en 1976.
À 53 ans, à la rentrée de 1980, Harry Markowitz donne une nouvelle orientation à sa vie professionnelle en retournant à l’Alma Mater et à la finance de marché. Il enseigne pendant deux années universitaires à la plus ancienne université américaine, créée par le roi Georges III, l’Université Rutgers, située à cinquante kilomètres de New York, puis de 1982 à 1993 au Collège Baruch à New York.
Il est remarquable de constater que Harry Markowitz a réussi aussi bien dans le domaine informatique qu’en finance :
• en 1989, il reçoit le Prix Von Neumann de Théorie de la Recherche Opérationnelle pour ses travaux informatiques et principalement pour SIMSCRIPT ;
• en 1990, il reçoit le Prix Nobel d’Économie pour avoir inventé la finance moderne. Il reçoit ce Prix avec son ancien doctorant, William SHARPE et Merton MILLER.
Si il a arrêté d’enseigner en 1993 à 66 ans, il continue d’avoir une vie extraordinairement active. De 1990 à 2000 il est responsable de la Recherche chez la société japonaise Daïwa Securities Trust 16 . Aujourd’hui, il vit au soleil à San Diego tout en continuant à avoir une activité de conseil qui le conduit, avec son épouse Barbara, dans le monde entier.
Un dernier mot : c’est la personne la plus discrète, la plus modeste et la plus gentille que l’auteur de ces lignes connaisse 17 . Le seul défaut que lui accordent ses amis est qu’il est complètement allergique à la fumée de cigarette.

Références bibliographiques
Harry Markowitz a 65 publications à son actif mais sa « double vie » professionnelle conduit sa bibliographie à être divisée en deux, les travaux portant sur la finance et ceux portant sur l’informatique, tout spécialement sur Simscript.
Quantitativement ces publications se répartissent de la manière suivante :


Le paradoxe est que, par rapport à ses successeurs, les publications en finance sont relativement peu nombreuses, d’autant plus que la majorité des « chapitres dans des ouvrages » sont des avants-propos ou des préfaces.
Le lecteur qui aurait été mis en appétit par la présentation de la révolution intellectuelle qu’il représente pourrait consulter les publications suivantes en attendant un ouvrage de « Collected Papers » qui serait le bienvenu 18 .
a) Ouvrages
Portfolio Selection : Efficient Diversification of Investments , John Wiley and Sons, 1959, Yale University Press, 1970, Basil Blackwell, 1991.
Il s’agit du texte de sa thèse revu et approfondi grâce à l’année passée à la Fondation Cowles.
Mean-Variance Analysis in Portfolio Choice and Capital Markets with chapter 13 by G. Peter Todd (2000) First published in 1987 by Basil Blackwell. Revised reissue by F. Fabozzi and Associates, New Hope, P.A. (2000).
Comme indiqué, il s’agit du texte révisé de l’ouvrage de même titre qui a eu trois éditions, 1987, 1989 et 1990 en édition de poche.
b) Articles en français
• « Relecture de Markowitz », Revue d’Analyse Financière , 1977, n o 2 [Traduction de Janine et Georges Gallais-Hamonno de « Markowitz Revisited », Financial Analyst Journal , sept-oct. 1976].
Cet article présente la « loi de covariance moyenne.
• « Histoire de la finance moderne », Journal de la Société de Statistiques de Paris , 1992-4.
Ouvrant une Journée d’Études de la S.S.P., Harry Markowitz fait le point sur les connaissances définitivement acquises en théorie du portefeuille durant les 40 années qui ont suivi son article de 1952.
c) Articles « fondateurs » et de synthèse
« Portfolio Selection », The Journal of Finance , March 1952.
L’article fondateur per se .
« Foundations of Portfolio Theory », Journal of Finance , vol. 46, n o 2, June 1991, pp. 469-477.
Conférence faite à Stockholm lors de la réception du Prix Nobel en 1990.
« Mean-Variance Analysis » in The New Palgrave, a Dictionary of Economic Theory and Doctrine , Macmillan London, 1987.
Présentation du cœur de la théorie.
« The Early History of Portfolio Theory : 1600-1960 », Financial Analysts Journal , July/August 1999, vol. 55, n o 4, pp. 5-16.
Article « historique » tout à fait passionnant dans lequel Harry Markowitz présente l’évolution de certaines de ses idées entre l’article de 1952 et l’ouvrage de 1959 et présente les complémentarités ou différences de ses idées avec celles d’autres économistes ayant publié des travaux importants dans le domaine de la théorie du portefeuille (Tobin, Hicks...).
À noter la modestie exceptionnelle de la conclusion.
d) Articles pour gérants de portefeuille
Durant ses années universitaires, soit durant ses « années sabbatiques », soit durant ses années au Baruch Collège, Harry Markowitz a publié une série d’articles orientés vers les professionnels de la gestion de portefeuille dans la revue : The Journal of Portfolio Management  : « The Two-Beta Trap », Fall 1984. « Investment Rules, Margin and Market Volatility », with G. Kim, Fall, 1989. « Data Mining Corrections », with Gan Lin Xu, Fall 1994. « The Value of a Bank Check », with D. Reid and B. Tew, Summer 1994, pp. 82-91. « A More Efficient Frontier », with Felix Schirripa and Nan D. Tecotsky, May 1999.
II
William Sharpe et la gestion de portefeuille
Gérard Hirigoyen

William Sharpe est né le 16 juin 1934 à Boston. Il commence des études scientifiques mais se réoriente très vite vers la gestion des entreprises puis vers l’économie, à l’Université de Los Angeles. Deux professeurs exercent alors une influence profonde sur sa carrière : Fred Weston qui, le premier, l’a introduit aux travaux de Harry Markowitz, et Armen Alchian, président de son jury de thèse. Après une courte période militaire, il rejoint la Rand Corporation, en 1956, en tant qu’économiste et commence à travailler avec Harry Markowitz sur un modèle simplifié d’analyse de portefeuille.
En 1961, année durant laquelle il obtient son Doctorat, il intègre l’Université de l’État de Washington, à Seattle, où il enseigne la finance. Il commence alors à travailler sur la généralisation de la théorie de l’équilibre contenue dans le dernier chapitre de sa thèse. À l’automne 1961, il découvre qu’un ensemble de résultats très proches peuvent être obtenus sans faire d’hypothèses quant au nombre de facteurs influençant le rendement des actions. Il présente cette approche pour la première fois, en 1962, à l’Université de Chicago. Il publie, en 1964, dans le Journal of Finance , un article qui pose les fondements de ce que l’on appelle aujourd’hui le Modèle d’Évaluation Des Actifs Financiers (MEDAF).
De 1961 à 1968, à l’exception d’une année passée à la Rand Corporation, il dispense des enseignements et des recherches très éclectiques à l’Université de Washington, mais il continue à travailler sur les extensions du MEDAF et les tests empiriques de ses implications.
Après un bref passage à l’Université de Californie, à Irvine, où il participe à une expérience impliquant la création d’une École des Sciences Sociales interdisciplinaires, il rejoint l’Université de Stanford en 1970, année durant laquelle il publie son ouvrage « Portfolio Theory and Capital Markets », qui synthétise les travaux normatifs et positifs dans le domaine de l’analyse de portefeuille.
Dans les années 1970, il concentre son effort de recherche sur l’équilibre des marchés financiers et ses implications pour les choix de portefeuille. C’est dans son ouvrage « Investments », publié en 1978, qu’il crée une procédure d’évaluation d’options par la méthode binomiale. L’idée est d’ailleurs reprise et publiée peu de temps après par Cox, Ross et Rubinstein, dans le Journal of Financial Economics (1979).
Durant cette période, il exerce également des fonctions de consultant, notamment chez Merrill Lynch, Pierce, Fenner et Smith ainsi que Wells Fargo Investment Advisors.
Il passe les années 1976-1977 au National Bureau of Economic Research, étudiant en particulier la relation entre la garantie des dépôts à terme et le risque de non-paiement. Il publie ses résultats dans le Journal of Financial and Quantitative Analysis , en 1978.
À la fin des années 1970, il développe un algorithme permettant de trouver des solutions approximatives à une classe de problèmes d’analyse de portefeuille. La publication finale de cette procédure, décrite d’abord dans un cahier de recherche de Stanford, n’intervient toutefois qu’en 1987.
Il est élu, en 1980, Président de l’Association Américaine de Finance.
Dans les années 1980, il s’intéresse au processus générateur de rendements sur les marchés d’actions américains, un sujet examiné avant lui par Barr Rosenberg, à l’Université de Californie de Berkeley. Il concentre aussi ses efforts sur l’allocation d’actifs, et, plus précisément, sur l’allocation des fonds d’investissement parmi plusieurs classes d’actifs. Dans cet esprit, il publie, en 1985, « Asset Allocation Tools ».
En 1983, il aide l’Université de Stanford à établir un programme portant sur le management d’investissement international, offert conjointement, initialement, par l’« International Management Institute » de Genève, et, plus tard, par la « London Graduate School of Business ».
En 1986, il quitte pendant deux ans Stanford pour fonder « Sharpe Russel Research », une société chargée de mener des recherches et de développer des procédures pour aider les fonds à sélectionner des actifs correspondant à leurs objectifs.
En 1989, il devient professeur émérite de finance à Stanford, et se consacre plus largement à la recherche et à ses activités de consultant au sein de sa société, William F. Sharpe Associates.
Tout au long de sa carrière, il a collaboré avec plusieurs organisations et institutions, en étant notamment administrateur du Collège Retirement Equities Fund, de 1975 à 1983, et de la Research Foundation of the Institute of Chartered Financial Analyst. Il a été également membre du comité de l’Institute of Quantitative Research in Finance, tout comme du Council on Education and Research of the Institute of Chartered Financial Analysts. Il a été, enfin, Conseiller auprès du Nikko Securities’ Institute of Investment Technology et de l’Union Bank of Switzerland.
Il reçoit aussi de nombreux prix, notamment de l’American Assembly of Collegiate Schools of Business, en 1980, et de la Financial Analysts Federation, en 1989, pour ses contributions respectivement à l’enseignement de la gestion et à la profession financières.
L’Académie royale des sciences de Suède lui a décerné, avec Harry Markowitz et Merton Miller, le prix Nobel de sciences économiques, le 16 octobre 1990.
Durant la décennie 1990, Sharpe s’est consacré principalement au problème de l’allocation des fonds d’investissement parmi plusieurs classes d’actifs.
Dans l’histoire de la théorie financière, Sharpe apparaît comme un auteur fondateur. Un de ceux qui ont contribué à donner ses fondations à la théorie financière permettant ainsi de bâtir une discipline scientifique à part entière 19 .
Dans une œuvre particulièrement féconde 20 , il est possible de repérer trois axes thématiques essentiels qui ont permis trois contributions majeures :
– l’axe 1 : l’analyse de portefeuille qui le conduira à la détermination d’un équilibre général et à l’élaboration du modèle d’équilibre des actifs financiers (1.) ;
– l’axe 2 : la performance des portefeuilles qui le conduira à proposer une mesure sous forme d’un ratio (appelé ratio de Sharpe) qui indique le différentiel de rendement espéré par unité de risque associé au différentiel de rendement (2.) ;
– l’axe 3 : l’allocation des fonds d’investissement qui le conduira à proposer une méthodologie originale pour apprécier les performances des gérants de fonds à partir d’un modèle d’évaluation des classes d’actifs (3.).
Apports gigognes – en quelque sorte – qui, tout en reflétant une progression temporelle, montrent une homogénéité et une unité de la pensée de l’auteur.

1. L’ANALYSE DE PORTEFEUILLE
Contrairement à Samuelson 21 et à Fama 22 , Markowitz 23 , Tobin 24 et Sharpe décrivent des investisseurs maîtres de leur destin comme le note très justement Bernstein (1995) : « les théories des choix de portefeuille montrent des investisseurs qui choisissent un actif plutôt qu’un autre, qui arbitrent prudemment entre risque et rentabilité attendue, et qui constituent des combinaisons optimales d’actifs appelées portefeuilles efficients » 25 .
Markowitz a proposé un processus de sélection de portefeuille en trois temps : estimation de la probabilité des performances futures de chaque titre, analyse de ces estimations afin de déterminer un ensemble de portefeuilles efficaces, et sélection à l’intérieur de cet ensemble des portefeuilles correspondant le mieux aux préférences des investisseurs.
Sharpe élargit les travaux de Markowitz sur la deuxième étape du processus de sélection de portefeuille : l’analyse de portefeuille. Sa démarche vise à alléger la procédure de détermination de la frontière efficiente. La solution que Sharpe apporte au problème d’utilisation du modèle de sélection de portefeuille réside dans son modèle diagonal.
Ce modèle a deux avantages. Il est l’un des plus simples qui puisse être construit et qui n’écarte pas les possibilités d’interrelation entre les titres, et manifestement il prend en compte un grand nombre de ces interrelations.
Suite à ces travaux conduisant à la construction d’un modèle d’analyse de portefeuille, et qui représente un équilibre partiel (1.1.), Sharpe a pensé qu’il pouvait approfondir ses recherches afin d’aboutir à un équilibre général. C’est ce qui le conduira à l’élaboration du MEDAF (Sharpe, 1964) (1.2.).

1.1. De l’équilibre partiel : le modèle simplifié d’analyse de portefeuille...
La caractéristique principale de son modèle diagonal réside dans l’hypothèse que la rentabilité des différents titres dépend principalement d’un facteur sous-jacent, uniquement par des relations courantes. La rentabilité de chacun des titres est déterminée par des facteurs aléatoires et cet élément extérieur seul. D’une manière explicite : R i = A i + B i I + C i où A i et B i sont les paramètres, C i est une variable aléatoire d’espérance nulle et de variance Q i et I est le niveau d’un indice. Indice qui peut être le niveau du marché financier global, le produit national brut, un indice de prix particulier ou tout autre facteur que l’on suppose exercer l’influence la plus grande sur la rentabilité des titres. Le niveau de I est déterminé en partie par les facteurs aléatoires : I = A n+1 + C n+1 , où A n+1 est un paramètre et C n+1 une variable aléatoire d’espérance nulle et de variance Q n+1 . On suppose que la covariance entre C i et C j est nulle pour toutes les valeurs de i et de j (i ≠ j).
Le modèle diagonal exige de l’analyste les précisions suivantes : – les valeurs de A i , B i et Q i pour chacun des N titres ; – les valeurs de A n+1 et Q n+1 pour l’indice I.
Le nombre des estimations exigées de l’analyste est ainsi grandement réduit : de 5 150 à 302 pour une analyse de 100 titres et de 2 003 000 à 6 002 pour une analyse de 2 000 titres.
Une fois les paramètres du modèle diagonal spécifiés, tous les éléments nécessaires à l’analyse de portefeuille type peuvent en être déduits. Les relations sont :

E i = A i + B i (A n+1 ) V i = (B i ) 2 (Q n+1 ) + Q i C = (B i ) (B j ) (Q n+1 )
Une analyse de portefeuille pourrait être menée : en déterminant les valeurs du modèle diagonal, en calculant à partir de ces dernières toutes les valeurs nécessaires pour le problème de l’analyse de portefeuille type et ensuite en faisant l’analyse à partir de ces valeurs induites. Sharpe va toutefois tirer des avantages supplémentaires en reposant directement le problème de l’analyse de portefeuille à partir des paramètres du modèle diagonal.
La rentabilité d’un portefeuille est égale à la moyenne pondérée de la rentabilité des titres qui le composent :


L’apport de chaque titre à la rentabilité totale du portefeuille est simplement égal à X i R i ou, à partir des hypothèses du modèle diagonal : X i (A i + B i I + C i ).
L’apport total d’un titre à la rentabilité du portefeuille peut être décomposé en deux parties : un investissement dans les « caractéristiques fondamentales » du titre en question et un « investissement dans l’indice ».

X i (A i + B i I + C i ) = X i (A i + C i )+ X i B i I
La rentabilité d’un portefeuille peut être considérée comme le résultat (1) d’une série d’investissements dans N « titres fondamentaux » et (2) d’un investissement dans l’indice :


X n+1 étant défini comme le taux de réponse moyen pondéré de R p au niveau de I :

X n+ 1 = X i B i
En substituant cette variable et la formulation des déterminants de I, on obtient :


La rentabilité d’un portefeuille a ainsi pour espérance :


Cette formulation montre la raison de l’emploi des paramètres A n+1 et Q n+1 pour décrire l’espérance et la variance de l’indice I futur. Elle montre également pourquoi l’on appelle ceci le « modèle diagonal ». La matrice de variance – covariance, qui est saturée quand on considère N titres, peut être exprimée comme une matrice présentant des éléments non nuls uniquement sur sa diagonale lorsque l’on inclut un (n+1) ème titre défini précédemment. Ceci réduit considérablement le nombre d’opérations nécessaires à la résolution du problème d’analyse de portefeuille (surtout dans l’étape 2 de la méthode de la droite critique, où la matrice de variance – covariance doit être inversée) et permet de poser directement le problème en termes de paramètres fondamentaux du modèle diagonal :

Maximiser λ E – V


Vérifiant : Xi ≥ 0 pour tout i de 1 à N


Bien que le programme diagonal permette de réduire considérablement le temps de calcul, le coût d’une importante analyse est cependant loin d’être négligeable. Sharpe a donc été incité à limiter les calculs à ceux qui sont essentiels pour la sélection finale du portefeuille. En tenant compte des possibilités d’emprunter ou de prêter de l’agent, le programme diagonal restreint les calculs à ceux qui sont absolument nécessaires pour déterminer l’ensemble final des portefeuilles efficaces (cf. Sharpe, 1963).
Les hypothèses du programme diagonal se situent à l’une des extrémités du faisceau des hypothèses possibles quant aux relations existant entre les titres. L’extrême simplicité du modèle permet de mener une analyse de portefeuille de faible coût. Cependant, il était possible que cette simplicité restreigne l’analyste dans ses prévisions, au point que la valeur de l’analyse de portefeuille ainsi obtenue soit également faible.
Afin d’estimer la capacité du programme diagonal à résumer les informations concernant la performance des titres, un test simple a été effectué. Vingt titres furent choisis au hasard au New York Stock Exchange et leurs performances sur la période 1940-1951 furent utilisées pour obtenir deux ensembles de données :
– la moyenne des rentabilités, les variances et co-variances des rentabilités réalisées sur la période ;
– les paramètres du programme diagonal, estimés par les techniques de régression à partir des performances des titres durant la période.
Une analyse de portefeuille fut ensuite menée sur chaque ensemble de données. Il apparaît que les 62 paramètres du modèle diagonal furent capables de saisir une part très importante de l’information contenue dans l’ensemble complet des 230 relations historiques. Un test supplémentaire, effectué sur un nouvel ensemble de vingt titres, donna des résultats similaires. Sharpe remarquait alors que « même si ces résultats sont trop fragmentaires pour être considérés comme concluants... ils suggèrent que le modèle diagonal peut être capable de représenter assez bien les relations existant entre les titres et par la suite que la valeur des analyses de portefeuille fondées sur ce modèle excède leur coût. Pour ces raisons, ce dernier apparaît être un excellent choix pour les premières applications pratiques de la technique de Markowitz ».
L’approfondissement de ces premiers travaux a conduit Sharpe à la détermination d’un équilibre général et à l’élaboration du modèle d’équilibre des actifs financiers qui représente la contribution majeure à la théorie financière de la décennie soixante.

1.2. ... à l’équilibre général : le MEDAF
Dès le début des années soixante, Treynor 26 constate que les investisseurs achèteront des actifs risqués uniquement s’ils peuvent espérer de ces actifs une rentabilité plus élevée que le taux sans risque.
Treynor parle de « prime de risque » pour désigner cet écart entre la rentabilité attendue des actifs risqués et le taux sans risque. Il développe ainsi une méthode permettant d’expliquer la formation de la prime de risque et de montrer son importance primordiale pour le comportement des marchés de capitaux et les choix de portefeuille. Sur le marché idéalisé de Treynor, « la prime de risque par action... est proportionnelle à la covariance de l’investissement avec la valeur totale de tous les investissements dans le marché ».
Treynor ignorait qu’à la même époque, Sharpe qui enseignait alors l’informatique et les investissements à l’Université d’État de Washington avait entrepris de découvrir l’influence du risque sur l’évaluation de tous les actifs qui constituent le marché à un moment donné. Sharpe parle ainsi de l’absence « d’une théorie qui puisse donner une signification réelle à la relation entre le prix d’un actif individuel et son risque... Malheureusement très peu de choses ont été dites sur la composante particulière du risque qui importe vraiment » (Sharpe, 1964).
Sharpe part des propositions qui sous-tendent aussi bien l’approche de Markowitz que le modèle à un seul facteur : les rentabilités des titres sont liées les unes aux autres uniquement par le biais d’une relation commune avec un facteur sous-jacent de base.
Si l’on considère un portefeuille diversifié, le risque d’un actif individuel se dilue dans celui du portefeuille ; cette intuition géniale l’amène à la conclusion qu’un investisseur devra s’intéresser uniquement à la contribution de chaque actif individuel au risque de l’ensemble de son portefeuille et à l’élaboration d’une théorie des prix des actifs à l’équilibre du marché dans des conditions de risque qui constitue l’apport majeur à la théorie financière de la décennie soixante.
Sous contraintes d’hypothèses fortes relatives au comportement des investisseurs et au marché, Sharpe propose un modèle dont l’architecture s’articule autour de trois axes 27  :
– la construction de la droite de marché (capital market line) ;
– l’établissement d’une relation permettant d’évaluer le prix d’équilibre d’un actif financier (security market line) ;
– la détermination de la relation entre le rendement d’un actif quelconque et celui du marché.

1.2.1. La construction de la droite de marché (capital market line)
Elle est fondée sur l’hypothèse que tout investisseur a la possibilité de prêter ou d’emprunter au taux sans risque. Comme cela a été démontré dans le modèle diagonal, l’investisseur rationnel situera son portefeuille sur la droite partant du point de risque nul et de rentabilité égale au taux sans risque (R f ) et passant par le point de tangence avec la frontière efficiente. Un tel portefeuille lui procure alors une rentabilité supérieure au taux sans risque, rentabilité due au risque supplémentaire qu’il supporte. Sharpe divise ainsi le prix de tout actif en deux composantes : le prix du temps, qui est le taux sans risque, et le prix du risque, qui est l’excédent de rentabilité attendue par unité de risque supplémentaire et qui correspond à la pente de la droite de marché. Les portefeuilles situés sur cette droite dominent ceux situés sur la frontière efficiente de Markowitz.
Définie essentiellement par les points R (ordonnée de l’origine équivalente à R f ) et M de coordonnées (σ M , E M ) la droite de marché a pour équation :


avec : E p l’espérance de rentabilité du portefeuille P,
E M l’espérance de rentabilité du portefeuille de marché,
M une mesure du risque du marché,
σ p une mesure du risque du portefeuille P.


La différence (E M – R f ) est appelée « prime de risque du marché ».

1.2.2. L’établissement d’une relation permettant d’évaluer le prix d’équilibre d’un actif financier (security market line)
La droite de marché et la courbe QMV étant tangentes en M, leurs pentes s’égalisent, d’où la relation :


D’où on tire:


La prime de risque de la valeur i, (E i – R f ) est une fonction linéaire de sa covariance avec le marché σ M . Ainsi le marché exerce une influence sur les divers titres qui le composent. Cette droite est la droite de marché relative aux valeurs ou ligne d’évaluation des actifs financiers.
En posant , on obtient 28 :
Contrairement à la relation établie à partir de la droite de marché (le rendement d’un portefeuille efficient est une fonction linéaire de son risque total), la ligne d’évaluation des actifs financiers permet d’exprimer le rendement d’un actif ou portefeuille efficient ou non, comme une fonction linéaire du risque de l’actif ou du portefeuille au risque du marché 29 . Cette ligne ne peut être confondue avec la droite de marché.
Le prix d’équilibre des actifs individuels ainsi déterminé permet de définir l’équilibre général du marché.

1.2.3. La détermination de la relation entre le rendement d’un actif quelconque et celui du marché
Le nuage des points – rendement d’un titre, rendement du marché – peut être représenté par le graphique ci-après :


L’ajustement de ces points par la méthode des moindres carrés conduit à l’élaboration de la « droite caractéristique d’un titre » dont l’équation est :

R i = α i + β i R M + ε i
où : R i est le rendement du titre i
R M est le rendement du marché
ε i une variable aléatoire d’espérance nulle et de covariance avec le marché nulle
α i , β i , les coefficients déterminés par la régression.
Il ressort que les variations aléatoires des rendements des titres ne sont pas uniquement dues aux variations du rendement du marché. La pente de la droite explique l’influence du marché sur le titre ; l’écart vertical entre un point et la droite que traduit la variable ε i est une caractéristique spécifique au seul titre i.
L’espérance et la variance du rendement du titre sont alors :

E i = α i + β i E M


Pour un portefeuille composé de N titres, on a :


qui est la moyenne pondérée des espérances des rentabilités des titres qui la constituent ;


Ainsi le risque de tout titre ou portefeuille peut être décomposé en deux éléments :
– le risque systématique du portefeuille qui est lié au portefeuille de marché et qui est non diversifiable ;

– le risque spécifique au portefeuille qui peut être éliminé par la diversification.
La part du risque systématique dans le risque total s’appréciant par le rapport :


Les portefeuilles efficients sont tels que le risque total est égal au risque systématique.
La séparation en simplement deux facteurs d’influence, le marché et les facteurs purement spécifiques au titre concerné, peut sembler une simplification exagérée de la réalité.
On peut raisonnablement faire l’hypothèse que les rendements des différents titres sont fonction linéaire non pas d’un seul facteur mais de plusieurs facteurs (le marché, le taux d’intérêt, les dividendes versés...). Dès lors, on peut vouloir décrire le comportement du cours d’un titre par un modèle multifacteur. Un tel modèle descriptif postule que le taux de rentabilité d’un titre est influencé par plusieurs facteurs communs, chaque titre pouvant avoir une sensibilité différente à chacun des facteurs.
Dans une étude empirique réalisée en 1982, Sharpe rapporte la performance d’un certain nombre de facteurs sur une période recouvrant 588 mois de 1931 à 1979 et regroupant 1 325 valeurs du N.Y.S.E. Les facteurs qu’il utilise sont le taux de rendement, la taille (mesurée en prenant le logarithme de la capitalisation boursière), le bêta par rapport à la rentabilité du marché, le bêta par rapport à la rentabilité des obligations de première catégorie, l’alpha (au sens du modèle du marché) et l’appartenance à un certain nombre de secteurs d’activités : industrie de base, biens d’équipement, bâtiment et travaux publics, biens de consommation, énergie, finance, transports, services publics.
Les résultats de cette étude sont présentés dans le tableau ci-après :

Valeurs annualisées des facteurs pour les 588 mois de la période 1931-1979 Facteur Valeur moyenne Écart-type S&P 500 (ER) 8,295 20,969 Obligations LT d’État (ER) 0,518 5,760 Bêta actions 5,355 18,376 Rendement 0,237 1,043 Taille – 5,563 7,804 Bêta obligations – 0,118 2,719 Alpha – 2,001 4,639 Industries de base 1,653 7,974 Biens d’équipement 0,155 5,720 Bâtiment travaux publics – 1,589 8,862 Biens de consommation – 0,18 5,173 Énergie 6,282 11,042 Finance – 1,478 5,247 Transports – 0,57 9,492 Services publics – 2,622 9,425
Sharpe (1982)
Les actions ont eu une rentabilité supérieure aux bons du Trésor de 8,3 % par an (c’est la signification de ER) mais la variabilité a été considérable : l’écart-type est de 21 % par an. Les obligations d’État à long terme ont obtenu aussi une rentabilité supérieure aux bons du Trésor, mais de montant beaucoup plus faible que pour les actions.
Les résultats quant aux facteurs sont les suivants. Les actions à bêta élevé ont obtenu en moyenne une meilleure rentabilité que les actions à bêta faible. Par exemple, les actions dont le bêta était de 1,5 ont une rentabilité annuelle supérieure en moyenne de 5 % par rapport aux actions dont le bêta était de 0,5. Ce résultat est une moyenne et n’a pas été obtenu chaque année, puisque l’écart-type était supérieur à 18 %.
Les autres facteurs sont généralement significatifs, bien que leur influence soit souvent faible.
Ce modèle multi-facteurs a conduit au développement de la théorie de l’évaluation par arbitrage (A.P.T.) élaboré en 1976 par Ross 30 qui suppose précisément que le rendement de tout titre i est une fonction linéaire de m facteurs du type suivant :


où :
est le taux de rendement de l’action i ;
a 1 est la valeur espérée du rendement de l’action i quand tous les facteurs ont une valeur nulle ;
est la valeur du J ème facteur qui affecte le rendement des actions ;
b ij est la sensibilité du rendement de l’action i au j facteur ;
e i est un terme aléatoire d’espérance nulle et de variance σ 2 ei , qui possède les propriétés suivantes :

E(e i , e j ) = 0, et j avec i ≠ j cov(e i , F j ) = 0 pour et j.
Le MEDAF qui ne considère qu’un seul facteur commun pour l’ensemble des titres apparaît comme un cas particulier de la théorie de l’évaluation par arbitrage. Cette dernière est cependant d’application plus générale que le MEDAF. Elle ne fait en effet aucune hypothèse sur la distribution des taux de rendement et elle n’exige pas que les investisseurs se situent dans une moindre moyenne-variance. Elle ne fait pas non plus jouer un rôle particulier au portefeuille de marché et elle permet de fixer des prix relatifs à l’intérieur d’un ensemble quelconque de titres sans que la totalité de ceux-ci soient pris en considération.
Deux conclusions fondamentales se dégagent du MEDAF.
La première est purement normative. Le MEDAF est une théorie microéconomique classique partant d’une maximisation de l’utilité de chaque investisseur. Elle montre que tout investisseur rationnel devrait détenir une combinaison d’actifs sans risque et du portefeuille de marché. Comme toute règle normative, celle-ci ne peut être soumise à une vérification de nature empirique.
La deuxième qui constitue un apport essentiel est d’une part, la détermination d’une prime de risque liée à tout actif risqué ; d’autre part, l’explication de cette prime de risque par la seule composante systématique du risque de portefeuille. Composante proportionnelle au risque du marché, et où le coefficient de proportionnalité est le bêta du portefeuille. Le dernier étant la caractéristique la plus importante pour estimer la rentabilité et le risque futur d’un portefeuille, il est nécessaire de disposer de sa juste évaluation. Comme le souligne Sharpe (1975) : « Calculer les bêtas historiques est incontestablement utile et je pense qu’il est remarquable qu’une gestion fondée sur un tel calcul historique donne de bons résultats ».
Les premiers tests sur la relation entre le risque et la rentabilité d’une action ou d’un portefeuille ont été réalisés aux États-Unis sur des titres individuels. Ainsi, Sharpe et Cooper (1972) ont montré que de 1931 à 1967 les actions américaines avaient une rentabilité qui était une fonction croissante de leurs bêtas.
Le MEDAF s’applique à tous les actifs et notamment aux obligations 31 . Ainsi, chaque obligation aura un bêta particulier dépendant du risque de défaut et de sa volatilité par rapport au taux d’intérêt. Sharpe (1973) a ainsi étudié sur la période de 1938 à 1971 les fluctuations trimestrielles de l’indice boursier américain (le Dow-Jones Industrials avec dividendes réinvestis) et d’un portefeuille d’obligations (le fonds mutuel Keystone B-2). Le taux sans risque choisi était le prime bankers acceptance à 90 jours. Le tableau ci-après regroupe les résultats présentés sous forme de rentabilité en excès du taux sans risque (R i – R f ) , d’écart-type des rentabilités et des pentes des droites rentabilité-risque selon l’investissement choisi.

Performance d’un placement en actions et obligations États-Unis 1938-1971

Sharpe (1973)
D’un point de vue statistique, l’utilisation de titres individuels n’est pas la méthode la plus efficace pour obtenir de bonnes estimations de la relation entre le risque et la rentabilité.
Le MEDAF est un modèle difficile à tester car il se fonde en particulier sur la notion mathématique de taux de rentabilité anticipé. La question posée est alors celle de savoir quelles sont les anticipations à utiliser lors de l’application du modèle. Les anticipations des investisseurs sur les performances des entreprises ne sont pas toujours homogènes. Les dirigeants des entreprises ont leurs propres anticipations sur les conséquences de leurs décisions, souvent plus optimistes que les investisseurs extérieurs. De nombreuses méthodologies statistiques ont été développées pour tenter de résoudre ce problème et de fournir des tests puissants.
D’autre part, les conclusions du MEDAF reposent sur les hypothèses de rationalité des investisseurs et d’efficience du marché. Leur caractère très restrictif a été largement à l’origine des critiques adressées au MEDAF. Parmi les études les plus récentes, retenons celle de Fama et French (1992) 32 qui montre que la relation entre le rendement moyen et le bêta disparaît sur la période 1963-1990 aux États-Unis. La relation est très faible sur la longue période 1941-1990. La prévision la plus faible du MEDAF, à savoir l’existence d’une relation positive entre l’espérance de rendement et le bêta est remise en cause. Pour Fama et French, un modèle à plusieurs facteurs, comme l’APT de Ross, au lieu d’un seul comme dans le MEDAF, serait plus proche du fonctionnement des marchés.
À la suite de ces études, beaucoup de chercheurs ont décrété la mort du bêta 33 .
Dans un entretien publié en 1998, Sharpe apporte un certain nombre de réponses aux critiques qui lui ont été adressées. Il estime que le MEDAF et le bêta ne sont pas morts. S’interroger sur le fait de savoir si le bêta est mort équivaut à se demander si les actions individuelles ont des rendements espérés supérieurs si elles présentent des bêtas plus élevés relativement au marché. Pour Sharpe, il serait irresponsable d’apporter une réponse négative à cette interrogation. Toutefois, cela ne signifie pas que l’on peut « confirmer les données » : on n’observe pas de rendements espérés, on observe des rendements réalisés ; on n’observe pas de mesures ex-ante des bêtas, on observe des bêtas réalisés.
Le MEDAF était et reste une théorie de l’équilibre. Il postule que les rendements espérés plus élevés vont de pair avec les risques plus élevés de réaliser des performances médiocres dans les mauvaises périodes. L’idée de base du modèle est la même mais le modèle a évolué. Par extension, il intègre aujourd’hui d’autres paramètres : les rendements espérés sont fonction des bêtas, des taxes, de la liquidité, des dividendes versés...
Quant au modèle trifactoriel de Fama et French, qui postule que le bêta est moins déterminant que la capitalisation boursière ou la « book-to-market value », Sharpe souligne que, de manière générale, les chercheurs ont tendance à surestimer l’importance de leur étude empirique particulière. En l’occurrence, poursuit-il, Fama et French essaient de répondre à la question : « en utilisant des manifestations historiques de ces construits ex-ante, pouvons-nous confirmer que les rendements espérés sont reliés au bêta, au “book-to-price”, ou à la taille ? ». Sharpe note que Fama et French utilisent des rendements moyens réalisés, et non pas espérés, et qu’ils trouvent certes une corrélation empirique plus forte avec le « book-to-price » et avec la taille, mais ce phénomène n’est pas nouveau.
Interrogé sur l’intérêt de l’empirisme, Sharpe répond que les résultats d’une étude empirique sont contingents d’une période, d’un pays ou d’un compartiment du marché. Il explique que, dans les données, il est difficile de trouver une relation forte, statistiquement significative, entre les bêtas mesurés et les rendements moyens des actions individuelles sur un marché donné. D’un autre côté, il est facile de construire un modèle de marché parfaitement efficient dans lequel ce phénomène pourrait se produire, quelle que soit la période. La situation optimale implique une théorie construite logiquement et avec prudence, et qui soit compatible avec les données.
Pour autant, Sharpe estime que le modèle trifactoriel de Fama et French n’est pas incohérent avec le MEDAF, dans la mesure où il propose « une voie plus riche de mesurer la probabilité de faire mal dans les mauvaises périodes ».
Quant au fait de savoir si l’APT, proposé à l’origine par Ross, est plus puissant que le MEDAF, Sharpe répond « oui et non ». L’APT, explique-t-il, considère que relativement peu de facteurs suscitent des corrélations et que le rendement espéré d’un titre ou d’une classe d’actifs devrait être fonction de son exposition à ces quelques facteurs. Cela est parfaitement cohérent avec le MEDAF. L’APT est certes plus puissant dans la mesure où il pose quelques hypothèses fortes concernant le processus de production des rendements. Mais il est plus faible parce qu’il dit peu de choses sur le rendement espéré des facteurs. Sans faire d’hypothèses fortes en complément du modèle APT, on ne peut assigner de valeurs numériques aux rendements espérés associés avec les facteurs. Le MEDAF va plus loin, en mettant quelque discipline et de la consistance dans le processus d’assignation de ces rendements espérés.

2. L’ÉVALUATION DES PERFORMANCES DES PORTEFEUILLES
Les mesures traditionnelles de la performance des portefeuilles se placent dans le contexte de la moyenne-variance issu du MEDAF et la ramènent donc à ses deux composantes principales : la rentabilité et le risque.
Après avoir présenté la mesure élaborée par Sharpe en 1966, appelée « ratio de Sharpe » (2.1.), l’examen de deux points permettra d’en apprécier la véritable portée le portefeuille de référence retenu (2.2.) et l’indépendance d’échelle (2.3.).

2.1. Le ratio de Sharpe
C’est Treynor qui le premier, en 1965 34 , propose une mesure sous forme d’un ratio (appelé ratio de Treynor) qui représente la pente de la droite reliant le portefeuille sans risque (F) au portefeuille risqué de l’investisseur (B). Il rapporte la prime de risque (R B – R F ) à la mesure du risque systématique du portefeuille (β F ), soit :


Le ratio élaboré par Sharpe en 1966 indique le différentiel de rendement espéré par unité de risque associé au différentiel de rendement, soit :


d = (R B – R F ), c’est-à-dire le différentiel de rendement attendu ;
σ d = (σ B – σ F ), c’est-à-dire la différence des écarts-types attendus des portefeuilles B et F.
Le ratio défini par Sharpe est très proche de celui de Treynor mais, contrairement à ce dernier, il analyse, d’une part, le différentiel de rendement non pas par rapport au risque spécifique mais par rapport au risque total ; d’autre part, il se concentre sur un ratio qui tient compte simultanément du risque et du rendement sans référence à un indice de marché.
Ce qui, graphiquement, s’illustre comme suit (voir page suivante) :
Le portefeuille A est préférable au portefeuille B car ce dernier a une pente positive plus faible. Cela revient à dire qu’à même volatilité, le portefeuille A possède un rendement plus élevé que le portefeuille B (ou qu’à même rendement, le portefeuille A est moins volatil que le portefeuille B).
Le classement entre portefeuilles peut être établi selon l’ordre croissant des ratios de Sharpe positifs : le plus élevé sera le plus performant. Un ratio de Sharpe négatif signifie que le portefeuille fait moins bien que le taux sans risque.
De nombreuses mesures de performance sont calculées en utilisant des données historiques mais sont justifiées sur la base de relations prédites, explique Sharpe. Des résultats ex-post sont utilisés tandis que des discussions théoriques se focalisent sur des valeurs ex-ante. Implicitement


ou explicitement, il est considéré que les résultats historiques ont au moins un pouvoir prédictif. Pour éviter toute ambiguïté, Sharpe fournit deux versions à son ratio : une version ex-ante et une version ex-post.
Dans la version ex-ante (cf supra), le ratio indique le rendement différentiel espéré par unité de risque associé avec le rendement différentiel. Dans la version ex-post, qui est la version historique, le ratio indique le rendement différentiel historique moyen ) par unité de variabilité historique de rendement différentiel •
Dans les deux cas, le ratio de Sharpe n’est pas indépendant de la période de temps sur laquelle il est mesuré. Pour maximiser le contenu de l’information, il est souhaitable de mesurer les risques et les rendements en utilisant des périodes courtes. Pour des propositions de standardisation, il est plutôt souhaitable d’annualiser les résultats.
Il convient de remarquer que ni la version ex-ante, ni la version ex-post du ratio n’incorporent d’information sur la corrélation d’un fonds ou d’une stratégie avec les autres actifs. Pour cette raison, il peut être nécessaire de compléter le ratio dans certaines applications. Aussi, deux points méritent d’être approfondis pour mieux mesurer l’apport de Sharpe : le portefeuille de référence retenu (2.2.) et l’indépendance d’échelle (2.3.).

2.2. Le choix du portefeuille de référence
L’écart-type attendu ou différentiel de rendement σd est souvent assimilé à la volatilité des rendements du portefeuille à évaluer. C’est en effet le cas lorsque le portefeuille de référence (benchmark) est l’actif sans risque, puisque, par essence, l’écart-type de cet actif est nul et donc σd = σf. Autrement dit, l’écart-type attendu de d est dans ce cas égal à l’écart-type attendu du portefeuille à évaluer. Ce n’est vrai que lorsque le portefeuille de référence choisi est l’actif sans risque.
À l’origine et pour l’essentiel, le portefeuille de référence (il peut s’agir d’un actif, d’un indice ou d’un portefeuille), utilisé dans le ratio de Sharpe pour le calcul du différentiel de rendement, est l’actif sans risque. Dans ce cas, le ratio de Sharpe met en évidence l’intérêt réel d’un placement risqué par rapport à un placement sans risque. Il fournit ainsi le niveau de rendement supplémentaire par unité de risque par rapport à une stratégie sans risque.
On peut envisager d’utiliser d’autres portefeuilles de référence que l’actif sans risque, comme un portefeuille composé par une combinaison entre le portefeuille de marché et l’actif sans risque ou alors un indice composé de portefeuilles qui ont un profil similaire au fonds dont on souhaite apprécier la performance. Dans ce cas, le ratio de Sharpe met en évidence l’intérêt ou non d’un investissement dans un portefeuille X par rapport à un investissement globalement similaire, c’est-à-dire proche des attentes et des préférences de l’investisseur (courbes d’indifférence fondées sur l’aversion vis-à-vis du risque). Ainsi un investisseur choisissant d’investir dans des valeurs technologiques pourra définir comme portefeuille de référence l’indice Nasdaq 100.
Cependant, quel que soit le choix du portefeuille de référence, on mesure toujours l’espérance de rendement supplémentaire par unité de risque supplémentaire par rapport à une stratégie d’investissement définie par le choix d’un tel portefeuille.
Par exemple, on cherche à apprécier les performances relatives de deux portefeuilles X et Y, tous deux constitués de valeurs technologiques, par rapport à l’indice Nasdaq 100 qui va donc servir de portefeuille de référence.
Soit R n la rentabilité attendue de l’indice Nasdaq 100 sur une période donnée et σ n la volatilité attendue de l’indice, S X et S Y les ratios de Sharpe appliqués aux portefeuilles X et Y, définis par : S X = (R X – R n ) / (σ X – σ n ) et S Y = (R Y – R n ) / (σ y – σ n ). Le portefeuille le plus performant sera celui qui aura le ratio le plus élevé.
Il mesurera le rendement supplémentaire attendu par unité de risque supplémentaire en référence à un style d’investissement spécifique. En effet, la différence (σ X – σ N ) mesure l’accroissement du risque par rapport à une stratégie spécifique, à savoir l’investissement dans l’indice Nasdaq 100.

2.3. L’indépendance d’échelle
À l’origine, le point de référence pour le ratio de Sharpe était un actif sans risque. Dans ce cas, le rendement différentiel est égal au rendement en excès du fonds, sur une période du taux d’intérêt sans risque.
Des applications plus récentes ont utilisé des portefeuilles de référence conçus pour avoir un « style d’investissement » semblable à celui du fonds qui est évalué (Sharpe, 1992) 35 . Dans ce cas, le rendement différentiel représente la différence entre le rendement du fonds et le rendement qui aurait été obtenu d’une alternative passive. La différence entre les deux rendements peut être appelée un « rendement actif » ou « rendement de sélection », dépendant de la procédure sous-jacente utilisée pour sélectionner le point de référence. Sharpe utilise une procédure appelée « analyse de style » pour sélectionner un ensemble de classe d’actifs qui ont un style similaire à celui du fonds. Quant un tel mix est utilisé comme référence, c’est bien le rendement de sélection du fonds qui sert de mesure de la performance (cf. infra point 3).
Un fait central dans l’utilisation du ratio de Sharpe est que le rendement différentiel représente le résultat d’une stratégie d’investissement-zéro, qui peut être définie comme toute stratégie qui implique une dépense zéro de monnaie dans le présent et des rendements soit positifs, soit négatifs, soit égaux à zéro dans le futur. Un rendement différentiel tombe clairement dans cette catégorie, dans la mesure où cette situation peut être obtenue en prenant une position longue dans un actif (le fonds) et une position courte dans une autre (le point de référence).
Dans les applications originelles du ratio, où le point de référence est un actif sans risque, le rendement différentiel représente le paiement d’une unité d’investissement dans le fonds, financé par emprunt. Pour calculer le rendement d’une stratégie d’investissement-zéro, le paiement est divisé par une valeur notionnelle, théorique, qui correspond à un pourcentage de l’investissement. L’échelle du rendement dépend ainsi du choix plus ou moins arbitraire de la valeur notionnelle utilisée pour son calcul. Les changements dans la valeur notionnelle affectent clairement la moyenne et l’écart-type de la distribution de rendement, mais pas le ratio de Sharpe, qui est ainsi indépendant de l’échelle.
L’indépendance d’échelle est plus qu’un objet mathématique. C’est la clé pour comprendre pourquoi le ratio de Sharpe peut procurer une statistique efficiente dans une stratégie d’investissement-zéro.
En définitive, le ratio de Sharpe est utilisé pour mesurer le rendement espéré par unité de risque pour une stratégie d’investissement-zéro. La différence entre les rendements sur deux actifs d’investissements représente le résultat d’une telle stratégie. Le ratio du rendement ajouté espéré par unité de risque ajouté procure un résumé commode pour deux aspects importants d’une stratégie impliquant la différence entre le rendement d’un fonds et celui d’un point de référence. Le ratio de Sharpe est désigné pour procurer une telle mesure. Utilisé de manière appropriée, il peut améliorer le processus des investissements.

3 L’ALLOCATION DES FONDS D’INVESTISSEMENT . PARMI PLUSIEURS CLASSES D’ACTIFS
L’allocation d’actifs est généralement définie comme la constitution d’un portefeuille à partir de différentes classes d’actifs. Les classes d’actifs une fois définies, il convient de mesurer la sensibilité des rentabilités de chaque classe d’actifs. Cette information permettra à l’épargnant d’apprécier la qualité de sa diversification ; si celle-ci ne correspond pas à celle souhaitée, des modifications devront être apportées à la composition du portefeuille.
Une fois qu’une mesure de la sensibilité des composantes (i.e les fonds) du portefeuille a été mise en place (3.1.), il est possible d’évaluer la performance individuelle des gérants des fonds et l’importance des gains réalisés grâce à leur management (3.2.).

3.1. Le modèle d’évaluation des classes d’actifs
Sharpe (1988, 1992) a proposé une méthodologie originale pour apprécier ces performances à partir d’un modèle d’évaluation de classes d’actifs (« return based style analysis ») qui se présente sous la forme suivante :


où :

R i est la rentabilité du portefeuille
F n est la rentabilité de la classe d’actifs n
b i est le poids de chaque dans le portefeuille avec
La somme des termes entre parenthèses représente la rentabilité attendue attribuable au « mode de management » et le résidu celle attribuable à la capacité de sélection des actifs. La principale contribution de cette approche consiste en la séparation de la rentabilité du portefeuille en ces deux principales sources.
L’utilisation du modèle dépend du choix des classes d’actifs. Chaque classe représente un ensemble d’actifs dont le poids correspond à leur capitalisation boursière. Un titre ne peut figurer que dans une seule classe et la rentabilité d’une classe d’actif doit être faiblement corrélée avec celle des autres classes ou dans le cas de fortes corrélations, les écarts-types doivent être différents.
La capacité du modèle à expliquer la rentabilité des actifs étudiés est donnée par l’équation (2) :


où R 2 est la proportion de la variance (R

  • Accueil Accueil
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • BD BD
  • Documents Documents