Le marché bancaire a profondément évolué ces dernières années : émergence des banques en ligne, volatilité de la clientèle induite par la multi-bancarisation, etc. Ce nouveau contexte expose de plus en plus les banques à une mise en concurrence sur l’ensemble des produits et des services livrés. Si la connaissance client est un facteur clé pour y faire face, plusieurs problématiques se dessinent : comment construire ce savoir ? Que faut-il connaître ? Des solutions « Big Data » ouvrent le champ des possibles en permettant une analyse poussée des données, notamment sur les réseaux sociaux.

Une analyse client par cas d’usage pour anticiper les besoins

L’amélioration de la connaissance client est au cœur des problématiques bancaires, que ce soit pour des enjeux de collecte, de gestion du risque, de répression des fraudes, etc. Pour ce faire, les banques disposent d’un savoir-faire historique et maîtrisé dans le traitement des données classiques : identité, détail du patrimoine financier, etc. Néanmoins, cela n’est pas suffisant pour donner un réel avantage concurrentiel, car cette vision reste maîtrisée par l’ensemble du réseau bancaire traditionnel. De plus, selon l’étude OpinionWay menée par Solucom, 45 % des clients sont multi-bancarisés, et un Français sur quatre a déclaré vouloir quitter sa banque notamment pour des raisons d’offres concurrentes. Il devient nécessaire de mettre sous contrôle ce qui conduit à la volatilité, en anticipant les événements de la vie courante. Par exemple, le financement des études supérieures, la naissance d’un enfant, la reconversion professionnelle sont des bouleversements qui modifient les besoins clients. Il est d’ailleurs possible de définir une frise chronologique présentant les étapes clés de sa vie “bancaire”. Chaque étape est ainsi définie comme un “cas d’usage” auquel la banque peut répondre au moyen d’une offre et d’une “expérience client” spécifique. Cela suppose une segmentation relativement fine des différents profils clients et prospects.

Twitter, une mine d’or à exploiter !

Afin de positionner un client sur une cas d’usage spécifique, il semble nécessaire de chercher des données présentes dans des sources variées : internes à la banque, externes, déstructurées, etc. Parmi les différents types d’informations disponibles, les  réseaux sociaux représentent un fort potentiel. Comparé à Facebook ou G+, Twitter constitue un point d’entrée relativement « accessible » pour récupérer de l’information, dans la mesure où les données sont généralement publiques. Celles-ci sont qualifiées de « semi-structurées », grâce à l’utilisation des Hashtags et surtout, Twitter vient d’ouvrir ses APIs pour permettre aux entreprises de suivre les échanges avec les utilisateurs !

Dans une première approche, pour simuler l’utilisation de ce réseau social dans l’analyse client par rapport aux événements clés qui structurent sa vie, vous pouvez aller regarder les résultats pour les tweets suivants : #Erasmus, #departaltranger. Les données obtenues correspondent aux utilisateurs ayant éventuellement besoin de services bancaires à l’étranger. Ensuite, chaque résultat doit être “qualifié” : client, prospect, collaborateur interne, etc. En sélectionnant de manière stratégique les hashtags, il devient alors possible de construire la connaissance client cible évoquée précédemment.

Si le concept parait simple, il faut cependant rester lucide quant aux contraintes techniques et contextuelles imposées:

  • Sur Twitter, l’information est susceptible d’être être rendue inaccessible du jour au lendemain, ou mise sous conditions financières, voire réglementaires. Pour gérer ces enjeux, des « Pure Player » développent leur propre plateforme de réseau social interne, comme ING Direct avec le « Web Café».
  • Ensuite, pour permettre aux banques d’exploiter ces données, il faut dans un premier temps traiter la masse d’informations puis filtrer, scorer, croiser les éléments collectés avant de construire la connaissance client souhaitée.

Le « Big Data » à la rescousse !big-data

Cette technologie peut être considérée comme l’un des outils qui répond le mieux aux enjeux de la connaissance client. Cependant, il n’existe pas de « solution miracle » qui permettrait de contourner “aisément” les difficultés techniques évoquées. Aujourd’hui, de multiples technologies type « Big Data » sont en cours de développement. Elles correspondent à la notion de “3V” – Volume, Variété des données et Vitesse de restitution – et permettent de concevoir de multiples applications. À titre d’exemple, les solutions IBM Watson Analytics et Microsoft Azure – pour n’en citer que deux – permettent, via les API Twitter, de faire des recherches par Hashtag et d’assurer une restitution quasi-instantanée. Pour les plus courageux, un tutoriel est même disponible pour faire des analyses sur 10 000 Tweets téléchargés aléatoirement depuis Twitter.

Ces solutions s’appuient essentiellement sur la technologie Hadoop. Véritable référence sur le marché du Big Data, son fonctionnement est basé sur la répartition de l’exécution d’un traitement sur plusieurs nœuds, ou “grappes de serveurs”. Une architecture traditionnelle va quant à elle gérer les traitements sur une “grappe unique”. Aujourd’hui Facebook, Google, ou encore Yahoo utilisent Hadoop pour réaliser des traitements sur des volumes de données de l’ordre de plusieurs pétaoctets. Néanmoins, ces outils restent relativement nouveaux, et de multiples améliorations sont à venir en termes de performances techniques.

En généralisant ce modèle, trois étapes se distinguent dans l’utilisation du « Big Data » à des fins de connaissance client pour la gestion de la concurrence :

  • Identification des cas d’usage clés pour la banque : quels événements dans la vie de mes clients vont créer de la volatilité ?
  • Détermination de l’information cible : quelles données me permettent de positionner un client ou un prospect sur tel cas d’usage ? Depuis quelles sources ? Faut-il croiser certaines données ?
  • Choix de la technologie, de l’architecture et construction de l’application dédiée : comment assurer le passage de la donnée cible depuis l’entrepôt de données vers la restitution en respectant à la fois la qualité, la réglementation, le Volume, la Variété et la Vitesse.

L’une des conditions nécessaires au fonctionnement de ce schéma est l’accessibilité des données. Aujourd’hui, dans la majeure partie des cas, l’information est détenue par les géants du Web : Google, Facebook et Twitter. À quel prix va s’échanger l’information ? Est-ce que le risque est trop important de lancer des projets « Big Data » sur une analyse des réseaux sociaux ? Que deviendrait le marché bancaire si ces géants devenaient des banques ?