Bigdata, la vision CMG Conseil et Saagie

Bigdata, la vision CMG Conseil et Saagie

CMG Conseil et Saagie, son partenaire technologique depuis 2016, ont organisé leur première conférence sur le thème Big Data – Disruption Technologique & Enjeux Métier le 26 juin 2017 en association avec le Master GSI de l’université Paris Dauphine. A cette occasion, Nathalie Martin Sanchez, consultante en Transformation Digitale au sein de CMG Conseil, a présenté un panorama de l’univers du Big Data. Jérôme Trédan, DG de Saagie, a évoqué pour sa part les outils du marché et a présenté les concepts de la solution Saagie. Enfin, une table ronde animée par Patrice Bernard a réuni 4 acteurs du secteur financier représentés par Guillemette PICARD (Directrice du Big Data Allianz France), Thierry BEDOIN (CDO Banque de France), Alain FISHER (CDO Société Générale GBIS) et Xavier de BROCA (DSI BPI France), tous référents dans leurs sociétés sur les problématiques Big Data. Cette table ronde a permis de comprendre leur approche au quotidien ainsi que leur choix de développement.

Les révolutions technologiques ont toujours été importantes au cours de l’histoire. Chacune d’entre elles  a conduit à découvrir voire développer de nouveaux usages aussi bien au niveau personnel que professionnel. L’arrivée de l’ordinateur a décentralisé la production, puis Internet a contribué à nous émanciper des supports physiques. L’explosion des réseaux sociaux a permis de diffuser l’information de manière encore plus décentralisée, plus largement et plus rapidement. Les mobiles (surtout les smartphones) pour leur part ont permis de nous affranchir des contraintes temporelles et spatiales de l’accès à l’information : nous devenons aussi des faiseurs de contenu. Toutes ces (r)évolutions d’usage sont aujourd’hui ancrées dans notre quotidien et ont largement modifié nos vies professionnelles mais aussi personnelles en s’ajoutant les unes avec les autres. La conséquence de ces nouveaux usages peut se décliner autour de trois constats.

Une explosion du volume des données jamais connue jusqu’alors :

  • 2,5 trillions d’octets de données générés chaque jour !
  • 90% des données ont été créées les deux dernières années (2015-2016)

Ces données pharaoniques ont des sources nouvelles :

  • Les données numériques sont connues et pour la majorité maîtrisée dans nos SI
  • Plus les nouvelles données : réseaux sociaux, Internet, parcours clients et achats en ligne, signaux GPS des mobiles, capteurs climatiques, objets connectés, etc.

Ces données sont disponibles dans des formats traditionnels mais aussi dans de nouveaux formats :

  • Images, vidéos : plus de 90% des données sont aujourd’hui non structurées

Ces données évoluent très vite, en temps réel pour certaines. La fréquence à laquelle les données sont générées, capturées et partagées s’accélère.

Naturellement l’exploitation de toutes ces nouvelles sources d’informations et l’avènement d’usages récents nécessitent de nouveaux paradigmes. Ce « raz de marée de données est complexe à traiter » pour les entreprises d’après Nathalie Martin Sanchez. C’est pourquoi le Big Data apparait comme une des réponses. Souvent dans la théorie liée au Big Data, on évoque communément les 3 V : Volume, Variété, Vitesse. Mais deux autres « V » sont ajoutés : Véracité et Valeur.

Nouveaux usages, nouveaux outils !

L’Intelligence Artificielle rassemble un bon nombre de techniques plus ou moins hétérogènes et abouties afin de rendre la machine « intelligente ». Ce qu’on entend à travers ce concept, c’est de permettre d’adapter des tâches rattachées au comportement intelligent. Le but est d’imiter des comportements proprement humains à savoir l’apprentissage, l’organisation de la mémoire et le raisonnement. Depuis quelques années, le Machine Learning et le Deep Learning ont fait leurs apparitions et permettent à une machine d’apprendre sans avoir été programmé explicitement. Le principal avantage de ces techniques est le traitement d’un grand volume de données à partir de modèles complexes (réseau de neurones par exemple). Pour traiter tout cela, le Big Data va s’appuyer sur l’ensemble de ces techniques mathématiques.  Il faut utiliser la machine pour ce qu’elle sait faire le mieux : le calcul parallélisé en masse. Par contre la place de l’homme reste centrale : l’intuition, la créativité, les sentiments. Les deux mis bout à bout engendrent un gain de temps important, une meilleure prise de décision et donc confère un avantage concurrentiel.

Le Big Data transforme aussi les usages métier mais pas seulement !

Pour Jérôme Trédan « Saagie veut simplifier la mise en œuvre d’un projet Big Data » avec le « data pipeline ». Le data pipeline peut se résumer en trois étapes : extraire, nettoyer et analyser les données.  La révolution du Big Data se traduit aussi par une évolution dans la manière d’appréhender un projet informatique. Naturellement, les acteurs traditionnels sont présents : la Direction qui définit les orientations stratégiques, le métier qui reste à l’origine du besoin et la DSI qui accompagne le projet dans sa mise en œuvre technique et fonctionnelle. Mais qui dit nouveaux usages dit aussi nouveaux métiers.

Ainsi, les principaux métiers du Big Data sont : le CDO – Chief Data Officer, le stratège en data , le Data Engineer, il s’assure de la mise en production du projet Big Data et le Data Scientist, le « mouton à cinq pattes » qui va modéliser les attentes du métier.

Cela n’est qu’un panel des futurs métiers liés au Big Data. Mais en plus de ces métiers, un projet Big Data va s’exécuter plus en méthodologie AGILE. La proximité des équipes permet d’améliorer la compréhension de l’objectif commun à atteindre. Tous ces ingrédients permettent d’obtenir rapidement les résultats attendus, de les ajuster en conséquence et de générer un retour quasi immédiat sur investissement.

Les ambitions pour les acteurs bancaires

Aujourd’hui, il apparait évident que le Big Data est une formidable opportunité pour les acteurs financier que sont les banques et les assurances. C’est l’occasion d’aller plus loin dans la connaissance client mais aussi la transformation du modèle d’affaire des entreprises. Le Big Data est un :

  • Levier de croissance
  • Optimisation de la donnée
  • Création de nouveaux business model
  • Optimisation de la connaissance client

Dans le secteur financier, il offre des champs d’études dans le développement commercial et la fidélisation (comportements d’achats mal connus, optimisation de la segmentation et connaissance client, taux d’attrition), la conformité et la sécurité des données (application de la directive GDPR, piratage des données, processus KYC), le pilotage de l’activité (données en silos, peu ou pas de temps réel) et la gestion des risques (amélioration des modèles de scoring, détection des fraudes plus rapide, KYC sur le blanchiment). Mais il demeure encore quelques freins à lever, ce qui en fait un enjeu important et incontournable. Beaucoup de sociétés prennent à peine conscience du potentiel lié au Big Data. Celles qui sont engagées dans les projets Big Data s’adaptent plus facilement à la rupture technologique et culturelle que sont le Big Data et l’intelligence artificielle.

La mise en œuvre du RGPD (Règlement Général sur la Protection des Données) prévue le 28 mai 2018 constitue un arsenal réglementaire européen pour toutes les sociétés qui traitent les informations des citoyens européens. Pour l’Europe, c’est un moyen d’unifier et de renforcer la protection des données personnelles. D’après le Gartner, seulement 50% des sociétés seraient au rendez-vous en 2018. Enfin, le dernier enjeu est de simplement se lancer dans un projet Big Data et d’en prendre la pleine mesure.

La vision des invités à la table ronde

Au cours de la table ronde, nos invités ont pu revenir sur l’ensemble des concepts développés par Nathalie Martin Sanchez et Jérôme Trédan, mais surtout, ils ont pu évoquer leur vision du Big Data dans leur entreprise respective et leurs difficultés quotidiennes. Les principaux thèmes abordés ont été surtout liés aux problématiques de la qualité de la donnée, de la méthode à suivre pour son premier prototype et des équipes projets. Clairement « la data est un asset » pour Xavier de Broca. C’est pourquoi la qualité de la donnée devient un enjeu primordial et important dans la mise en œuvre d’un projet Big Data. La donnée de mauvaise qualité va générer du bruit et donc appauvrir la qualité des algorithmes mis en place. Dans ce type de projet, la collecte de la donnée est un axe d’amélioration non négligeable, sur lequel ont travaillé les équipes de Thierry Bedoin dans le cadre de la mise en place du datalake de la Banque de France. L’apport du Big Data peut contribuer à enfin obtenir une véritable piste d’audit de la donnée. Le rôle du métier reste important afin d’assurer la conformité et la qualité de celle-ci. La DSI va accompagner les métiers dans son architecture ainsi que sur l’infrastructure technique.

Tous les intervenants ont été unanimes : la proximité des équipes permet d’aboutir à la conception d’un bon prototype. Evidemment la méthode AGILE a largement été plébiscitée avec la mise en place d’une gouvernance transverse et la définition de nouveaux rôles (notamment le Chief Data Officer, pierre angulaire d’un projet réussi). La digitalisation n’est pas compatible avec une organisation classique en silo d’où la préférence d’une méthode AGILE et non plus classique (cycle en V). En revanche, Guillemette Picard s’est démarquée des autres invités. En effet, les projets Big Data ont déjà dépassé la phase d’expérimentation puisqu’ils sont intégrés à part entière dans la chaîne de production d’Allianz. Enfin, l’organisation des équipes fait appel à des compétences diverses et encore mal définies. Pour Alain Fisher, les membres de son équipe contribuent largement au succès des projets mis en œuvre au sein de la Société Générale. Ils évaluent la pertinence de lancer un projet Big Data en fonction des besoins métier. Le besoin conduit à la conception d’un projet Big Data. En aucun cas, le Big Data n’est à considérer comme un gadget, ce qui fait aussi écho aux propos de Jérôme Trédan sur la place centrale des hommes dans ce type de projet. Les hommes composent l’équipe qui conduira à la bonne solution. Il s’agit de trouver la bonne alchimie.

La conférence s’est conclue sur deux thèmes liés à l’éthique des techniques utilisées et la redéfinition des rôles au sein des entreprises. Les invités et participants ont pu continuer d’échanger autour d’un cocktail sur le potentiel encore sous-estimé du Big Data.

Boris E.

958 780 CMG Consulting Group
CMG Consulting Group
Rechercher...