Il ne faut pas surestimer l’utilité des modèles financiers

Publié le 14 octobre 2025 à 16h46

Jean-François Boulier    Temps de lecture 4 minutes

Les différents modèles financiers, tels que ceux permettant l’analyse des risques, sont basés sur des hypothèses plus fragiles qu’on ne le pense, comme l’idée de la prédominance d’un facteur de risque sur les autres. L’emploi de plusieurs angles d’approche, de plusieurs sources de données ou même de plusieurs méthodes permet de cerner l’étendue de la complexité d’un sujet et de mieux préparer l’avenir.

Les risques et leur mesure sont affaire de statistique, c’est vrai en tout domaine et la théorie financière ne manque pas d’y faire appel. L’analyse des risques boursiers en particulier fait partie des sujets les plus étudiés mais aussi les plus disputés. Les premiers chercheurs, parmi lesquels Eugen Fama et William Sharpe, avaient formulé l’hypothèse qu’un seul facteur de risque dominait les autres, le risque de marché, représenté par la variation d’un indice par exemple. Pourtant le même Fama associé à French devait apporter une extension de sa première approche en ajoutant d’autres facteurs, notamment la taille et la valorisation relative (cours sur valeur comptable). Depuis, la liste des facteurs a été considérablement étendue par d’autres travaux. La difficulté ne serait-elle pas inhérente à la méthode de détermination de ces facteurs, ce qui met en question la fiabilité des résultats ?

Dans sa présentation intitulée « Factor analysis in short panels », lors de la conférence annuelle de l’Association française de finance (AFFI) à Dijon en mai dernier, Olivier Scaillet, professeur à l’Université de Genève et chercheur expert en statistiques appliquées à la finance, propose d’employer de meilleurs estimateurs, plus adaptés à des échantillons de taille restreinte. En effet, en diminuant la période utilisée pour déterminer les facteurs, on peut mieux en suivre l’évolution temporelle et étudier par exemple comment ces facteurs se comportent en situation de crise comparativement aux périodes de croissance. Muni de ces nouveaux estimateurs, dont il montre qu’ils sont plus performants sur des échantillons de petite taille, il repart à l’assaut de la détermination des facteurs en s’intéressant au marché boursier américain, sans imposer a priori ni le nombre de facteurs ni leur nature.

Les résultats qu’il obtient vont à l’encontre de plusieurs idées reçues. La première est que le nombre de facteurs ainsi déterminé varie substantiellement d’une période à l’autre, et que donc il paraît délicat d’en imposer un nombre constant. La deuxième tient au nombre de facteurs déterminés en période de crise. Ceux-ci seraient bien plus nombreux que pendant les périodes de croissance boursière ; ainsi, bien que tous les titres baissent, les déterminants de leur baisse sont plus nombreux que les facteurs durant une période de hausse. C’est peut-être la coïncidence de leurs effets baissiers qui crée l’illusion qu’ils ne seraient qu’un seul facteur, représenté par la baisse d’un indice boursier par exemple. Enfin, la pertinence statistique du modèle (part de la variance expliquée) tend à nettement augmenter en période de crise… ce qui rendrait un tel outil moins performant en période de hausse, voire d’euphorie des marchés.

Des outils sensibles aux données utilisées

Pour paradoxaux que ces travaux puissent paraître, ils rappellent que les outils statistiques restent particulièrement sensibles aux données utilisées mais aussi aux méthodes elles-mêmes. Ainsi paraît-il délicat d’inférer trop rapidement l’importance de facteurs émergents ou de facteurs instables d’une période à l’autre. La variabilité est certes une constante dans des économies et des marchés concurrentiels mais la nature même de cette variabilité, notamment les facteurs communs qui la produisent, sont eux-mêmes variables, du moins dans une certaine mesure. L’utilité des modèles trouve ici une limite qu’il serait dangereux d’ignorer. Ainsi l’emploi de plusieurs angles d’approche, de plusieurs sources de données ou même, comme on le voit ici, de plusieurs méthodes permet de cerner l’étendue de la complexité d’un sujet et de mieux préparer l’avenir qui reste incertain par nature, revers d’une liberté d’action. Les facteurs les plus stables à moyen et à long terme méritent aussi d’être privilégiés.

Les outils statistiques ne sont pas les seuls à prédéterminer les réponses aux questions posées avec leur concours. Le choix des variables analysées, voire même les mots ou concepts qui les décrivent, la langue elle-même, ont des influences sur les résultats obtenus. Et ce n’est pas l’intelligence artificielle, pour puissante qu’elle soit, qui modifiera la donne. Enfin, si l’outil n’est pas « coupable » des résultats, l’utilisateur doit savoir prendre et assumer la responsabilité de son emploi.

Jean-François Boulier Président d'honneur ,  Af2i

Jean-François Boulier est président d'honneur de l'Af2i.

Du même auteur

Voir plus

Chargement en cours...

Chargement…