Ne dormez plus sur un tas d’or, maîtrisez et exploitez vos données !

Laurent BerthautLaurent Berthaut
Actuaire conseil
Intervenant EFE à la formation « Statistiques en assurance dommages » des 17-18 décembre 2013 et 19-20 juin 2014 à Paris

L’analyse des données, et donc l’utilisation des techniques statistiques, sont à la base même du métier de l’assureur.

Ce métier, on le sait, consiste en une prestation de service au cours de laquelle l’assureur s’engage à répartir sur tous les assurés (la mutualité) les conséquences de sinistres que subissent quelques-uns d’entre eux. Pour ce faire, l’assureur encaisse les primes avant de payer les éventuels sinistres : c’est ce qu’il est convenu d’appeler « l’inversion du cycle de production » puisqu’il faut fixer le prix de vente de la prestation de service (montant de la prime) avant d’en connaitre le prix de revient (montant des sinistres à payer).

Il en résulte pour l’assureur une absolue nécessité de recourir à l’analyse statistique des données passées pour estimer (prévoir) le futur. D’où la devise de l’Institut des Actuaires Français « éclairer les risques, tracer l’avenir ».

En assurance, les statistiques ne sont donc pas seulement, comme dans d’autres secteurs, un moyen d’analyser l’activité (reporting, tableaux de bord) mais aussi, et surtout, l’outil pour la mettre en place et la développer. La capacité de l’assureur à quantifier les conséquences financières des risques avec un minimum d’aléa dépend ainsi directement de la qualité des analyses menées.

Les considérations générales que nous venons d’exposer, recouvrent des réalités qui différent suivant le type d’assurance (Vie ou Non-Vie), la catégorie (RC, Incendie,…) ou le marché (de masse comme l’automobile ou de niche comme le spatial) étudiés.

De même, au sein des services techniques des organismes d’assurance, on distingue plusieurs grandes taches qui reposent essentiellement sur les analyses statistiques : la tarification, les calculs d’élasticité prix via la modélisation des taux de résiliation, la liquidation des sinistres à payer, l’analyse de la sinistralité de pointe afin d’optimiser la couverture de réassurance, etc.

Mais quelles que soient la branche ou la tache considérées, le développement de l’informatique décisionnelle (data warhouses) et l’accroissement des capacités de calcul ont conduit à l’explosion des données disponibles (la richesse de l’assureur, son « tas d’or ») et donc à l’émergence de besoins d’analyses statistiques de plus en plus poussées.

C’est particulièrement vrai en assurance Dommages où, traditionnellement, l’actuariat est moins formalisé qu’en assurance Vie du fait de l’absence de table de mortalité. Le recours aux techniques d’analyse statistiques, en particulier descriptives, y revêt alors une très grande importance.

En effet, comme le martèle en introduction de son premier cours tout bon professeur de statistiques appliquées, « pas de bonnes analyses sans bonnes données ». Le premier travail du technicien d’actuariat consiste donc de s’assurer de la qualité des données afin d’être en mesure de garantir la pertinence et la crédibilité du résultat de ses analyses.

Pour cela, il s’appuiera sur des techniques simples, mais pas simplistes, lui permettant de dégager les caractéristiques de la distribution étudiée : indicateur de tendance centrale (moyenne, médiane,…) mais aussi indicateur de dispersion (min, max, étendue, variance,…).

Il sera ainsi en mesure de résumer l’information et de se l’approprier (ordre de grandeur, cohérence) soit, en d’autres termes, de maîtriser ses données. Il pourra également très facilement repérer les valeurs aberrantes (donnée fausse dans le système de gestion, donnée corrompue lors de l’importation dans la base,…)  susceptibles de fausser les analyses et donc qu’il convient d’éliminer.

Enfin, la maîtrise des données passe aussi par la capacité de l’utilisateur à en retracer la construction. La formalisation du processus d’alimentation des bases de données est essentielle. Il faut être en mesure de d’écrire la source des données, les modifications apportées, les analyses menées et les hypothèses prises.

Cette démarche, qui est à la base de toute analyse technique de qualité, revêt par ailleurs une importance grandissante du fait de la nouvelle réglementation prudentielle. En effet, Solvabilité II renforce considérablement les attentes concernant l’intégrité et la lisibilité des systèmes d’informations, en établissant de nouvelles normes et exigences applicables à la profession, en termes de gouvernance et de qualité des données[1].

 

 

 

 

 


[1] Le régulateur aura les pouvoirs de contrôler la qualité des données et des procédures d’estimation, des systèmes mis en place pour mesurer et maîtriser les risques au cas où ils se matérialiseraient.