La qualité des données comme vecteur de compétitivité

Dans le cadre du « Comprehensive Assessment », les banques doivent livrer très rapidement un grand nombre de données de qualité. Un véritable défi pour le SI de l’établissement qui peut être relevé grâce à une infrastructure analytique hautes performances, qu’il utilisera non seulement pour répondre aux contraintes réglementaires et maîtriser son exposition aux risques, mais également pour améliorer la rentabilité de ses activités opérationnelles. Une tribune de Stefan De Lombaert, Directeur Senior du SAS Risk Center of Excellence, EMEA, Asie- Pacifique

Les résultats de l’évaluation globale et des stress-tests réalisés dans le cadre de l’instauration du mécanisme de supervision unique seront connus à la fin de l’année. Mais on peut déjà tirer quelques enseignements de ce processus inédit dans l’histoire bancaire mondiale.

Dans tous les secteurs d’activité et dans toutes les entreprises du globe, le XXIe siècle sera centré sur la donnée. Celle-ci – big data ou pas – est déjà la source d’innovations très diverses : développement de nouveaux produits et services, création de nouveaux business models ou de nouvelles sources de revenus, optimisation, fidélisation client, amélioration des traitements médicaux, sécurité, lutte contre la fraude, etc.

Mais un bon programme analytique dépend avant tout de la qualité des données sur lesquelles il repose. Certains scandales financiers (JPMorganChase, « Libor manipulation scandal »,…..) ont notamment prouvé que les différentes divisions d’une société ne partageaient pas leurs informations et que les Directions du risque éprouvaient des difficultés à obtenir en temps utile des données pertinentes ; lorsqu’elles obtiennent ces données, elles sont souvent difficilement exploitables pour des problèmes de qualité. Mais dans le cadre de l’évaluation globale point de salut ! Le régulateur ne saurait se contenter de données erronées…

Il est vrai qu’il est particulièrement compliqué pour une banque présente à l’international de disposer de données cohérentes : elles entretiennent de multiples systèmes d’information, souvent dans plusieurs langues. Les produits eux-mêmes disposent fréquemment d’appellations différentes, sans parler des différentes devises et règles comptables qu’il convient également de prendre en compte. Et dans le cas de l’évaluation globale, la dimension ‘temps’ joue également : le délai pour répondre à l’ensemble des contraintes est extrêmement court.

 

Un modèle de données unique

Idéalement, pour répondre aux demandes de la Banque centrale européenne (BCE), l’institution financière doit disposer d’une infrastructure technique capable de centraliser l’ensemble des informations utiles historisées et reposant sur un modèle de données unique. Cette base de données unique et historisée doit s’appuyer sur un référentiel unique de produits et sur un dictionnaire des parties et contreparties couvrant l’ensemble de leurs activités et de celles de leurs filiales. Tous les éléments doivent être liés entre eux (exposition, garantie, provisions). A défaut, la banque doit interroger chaque système individuellement, puis après vérification, consolider les données, ce qui est particulièrement complexe et chronophage.

La difficulté consiste en outre à identifier les opérations intra banques (c’est-à-dire entre la maison mère et ses filiales) qui apparaissent deux fois dans les états.

Etant basées sur des positions (de marché), les données ainsi consolidées doivent pouvoir être rapprochées avec la comptabilité afin de refléter la position exacte de la banque. Ce processus de réconciliation est également très complexe, ce qui explique – entre autres – le  délai particulièrement long de publication des rapports annuels.

En matière de qualité de données, plusieurs challenges apparaissent lors des contrôles. Certains sont purement techniques : pour certaines opérations, la devise ou la date réelle de l’opération manque. D’autres challenges relèvent du domaine opérationnel : il convient par exemple de vérifier les taux d’intérêt appliqués à des opérations par rapport à la moyenne et l’écart standard d’autres opérations conclus le même jour.

 

Des outils performants, modulaires et polyvalents

Avec l’avènement récent des technologies d’analyse des big data, il est désormais possible de développer rapidement une infrastructure hautes performances, qui tire parti d’un modèle de données permettant d’unifier l’ensemble des éléments dans une base historisée. L’éditeur peut également offrir des outils de contrôle aussi bien techniques que métiers, ainsi que la flexibilité nécessaire pour créer tout type de fichier depuis cette base.

Cette flexibilité est d’autant plus essentielle que les régulations, d’une part, ne cessent de se multiplier et, d’autre part, réclament un niveau de détail toujours plus important. Aujourd’hui, par exemple, les contrôleurs réclament le contenu détaillé des portefeuilles, ce qui n’était pas le cas auparavant. Avec le besoin accru de contrôler des opérations toujours plus complexes, on comprend pourquoi les banques ont intérêt à développer des infrastructures qui ne soient pas statiques.

Dans le futur, même si les banques devraient être déchargées de ces calculs (puisque le régulateur pourrait les prendre en charge afin d’uniformiser les méthodes de calcul), elles devront néanmoins toujours lui fournir les données pertinentes et répondre à de nouvelles demandes.

Par ailleurs, de plus en plus de banques recourent à des outils qui leur permettent de calculer et de suivre en temps réel leur exposition crédit et marché. Là aussi, traditionnellement, elles s’appuyaient dans le passé sur des processus manuels, impliquant de multiples systèmes et traitements de nuit (« batch ») qui, par leur longueur, exposaient l’entreprise à d’importants risques. Aujourd’hui, il existe des calculateurs qui tirent parti d’une puissante plate-forme de gestion des risques combinée à une infrastructure analytique hautes performances, pour évaluer précisément et rapidement l’exposition aux risques, comparer les chiffres avec les seuils de tolérance prédéfinis et au final prendre les bonnes décisions.

Ces calculateurs offrent notamment aux traders une image claire de leur exposition en temps réel qui leur permet, à un instant T, de renforcer leurs investissements ou au contraire de les limiter. De leur côté, les contrôleurs de risque suivent également les risques en temps réel et sont en mesure de calculer l’exposition globale de la banque sur les marchés mondiaux. Ensemble, ils peuvent également procéder à des simulations pour analyser l’impact de n’importe quelle décision sur les pertes / profits de la banque.

 

Au-delà de la conformité

Au-delà des problématiques de conformité et d’exposition aux risques, ce type d’infrastructure peut aider les banques à dégager une connaissance particulière de leurs activités, sur laquelle elles peuvent innover et baser d’autres décisions. Elles peuvent par exemple examiner la rentabilité de chacun de leurs clients, améliorer leur efficacité opérationnelle en analysant chaque structure de coût et se différentier de leur concurrence afin d’obtenir un avantage concurrentiel via la création d’un nouveau produit.

C’est le cas par exemple de la Banque Nationale de Grèce[1] qui en basculant d’un système de gestion des risques développé en interne vers un environnement intégré et hautes performances a réduit de moitié le délai de production d’analyses diverses. Ceci lui a permis de réduire le nombre de ressources dédiées au reporting et d’augmenter celles dédiées aux analyses – depuis l’analyse des risques crédit jusqu’à celle du risque de fraude. Ce cas parmi tant d’autres est exemplaire d’une banque qui a profité d’une réforme due à une évolution réglementaire pour transformer en profondeur sa stratégie analytique globale.