La gestion d’actifs à l’ère du « big data »

Post with image

Uber est devenu un symbole de la manière dont les nouvelles technologies peuvent rapidement transformer une activité établie de longue date en créant à la fois du chaos et de belles opportunités. Dans le domaine de la gestion d’actifs, le recours accru à l’internet et aux médias sociaux rend les relations client plus interactives. Après tout, pourquoi dépenser de l’argent pour imprimer des dépliants et brochures alors que les clients peuvent accéder à toutes les informations en ligne – parfois en format vidéo – et comparer facilement en direct les offres des fournisseurs ?

Certaines entreprises poussent le raisonnement plus loin. Des start-ups en technologie financière (fintech) proposent des « robot-conseillers » dans le but ultime d’automatiser le contenu. Elles rêvent de Siri – l’application vocale d’Apple – capable de répondre dans toutes les langues à des questions telles que : « Siri, où devrais-je investir aujourd’hui pour assurer ma retraite ? » Pas d’emballement, ce n’est pas encore pour tout de suite, même si IBM a déjà développé Watson, un système basé sur des algorithmes d’analyses de données , qui utilise « le traitement du langage naturel et l’apprentissage automatique pour générer de nouvelles idées à partir d’un volume important de données non structurées ».

Dans la sphère même du « big data », des entreprises comme Amazon et Netflix sont capables de déduire quel livre ou film ses visiteurs réguliers aimeront sur la base de leurs recherches, clics et achats précédents compilés dans une gigantesque base de données. Selon toute vraisemblance, de telles extrapolations pourraient également s’appliquer aux décisions d’investissement.

Dans notre secteur, le changement s’opère non seulement du côté de la distribution mais aussi de la production, où les chercheurs et les gérants définissent et mettent en œuvre les stratégies d’investissement. Le processus est déjà en marche depuis quelque temps  et le smart beta et le factor investing sont les derniers-nés de cette « Uberisation ».

Tout a commencé à Chicago en 1960 lorsque le Center for Research in Security Prices commença à développer une banque de données complète des prix de titres, qui allait ouvrir la voie à de nombreuses recherches académiques destinées à identifier des anomalies de cours, dont l’anomalie de la faible volatilité découverte par Robert Haugen. En 1995, cette banque de données fut élargie aux fonds communs de placement (FCP), ce qui a permis d’analyser la régularité des performances des fonds (Carhart, 1997). Cette étude fut la première à établir un lien entre l’exposition à certains facteurs et la récurrence de la performance des gestionnaires d’actifs.

Allons encore plus loin. L’Institutional Brokers’ Estimate System (IBES) a commencé à transformer le travail des analystes en leur donnant accès aux prédictions moyennes de milliers de confrères dans un univers couvrant plus de 40 000 entreprises. Aucun gestionnaire ne pourrait seul intégrer tout ce contenu sans appliquer au moins un filtre quantitatif – ce que l’on appelle « la science des données » – pour utiliser un terme de la technologie financière moderne.

Dans une certaine mesure, la gestion quantitative est l’intégration de toutes ces techniques de gestion des données pour fournir une sorte de « robot-gestion » – tout comme le « robot-conseil » résulte de l’intégration des technologies d’information afin d’augmenter la vente de FCP.

Etienne Vincent

Head of Global Quantitative Management, THEAM

Laisser un commentaire

Your email adress will not be published. Required fields are marked*