L’AUSIM a organisé le vendredi 27 Mai, son Rendez-Vous thématique du mois de Mai autour de l’Analyse Prédictive et le BigData. Ce rendez-vous a été animé par M. Aadel Benyoussef, le patron de la filiale française établie à Bordeaux du groupe américain «Excelerate systems» spécialiste de l’innovation technologique informatique à destination des entreprises et des collectivités. Lors de cette soirée thématique il a exposé sa vision d’un secteur en plein expansion.

Récit de l’événement par Salah BAINA, Professeur à lENSIAS

M. Benyoussef, a commencé sa présentation, avec ces mots  «Les Algorithmes permettent à l’homme de continuer sa quête vers l’immortalité ! »

Donner à la machine, le pouvoir de décider, de penser, d’innover de créer voire de rêver, alimente l’envie de l’humanité à transhumer vers une forme digitale et à se transcender se débarrassant ainsi d’un corps biologique et les contraintes du monde physique où nous évoluons.

Sans titre

À l’ère où les algorithmes deviennent incontournables dans la vie quotidienne des entreprises et des particuliers, à l’ère où les algorithmes décident d’à peu après tout, les technologies liées au BigData et à l’analyse prédictive deviennent également incontournables pour permettre de modéliser, représenter et traiter des volumes élevés de données, arrivant à travers des flux soutenus et ininterrompus constituant la matière première principale pour ces calculs. Le Big Data, est l’enjeu majeur du numérique des 5 prochaines années, le secteur connaîtra une envolée de croissance pendant les prochaines années.

Le chiffre d’affaires du marché du Big Data (hors services) devrait croître de 40 % par an pour atteindre 44,4 milliards d’euros en 2018. Le domaine du BigData se trouve à la croisée des chemins entre deux mondes, le premier est celui des mathématiques et des statistiques et de la prédiction, le second, celui des technologies de l’information, leur rapidité et leur performance. Les domaines touchés par le transfert de la décision de l’humain vers la machine se multiplient de jour en jour (finance, emploi, santé, trafic routier, etc.).

  • dans le Marketing, les algorithmes améliorent la connaissance du client : analyse du comportement client, micro segmentation, analyse multicanal, …
  • dans les Sciences, ils traitent et analysent des volumes de données importants pour la recherche médicale (la recherche génétique génère 1To  de données par expérimentation), ils analysent des données météorologiques issues des capteurs, etc.
  • dans la Finance, ils améliorent les temps de traitement et donc les temps de réaction dans des processus chrono-sensibles comme la gestion des risques ou la gestion des fraudes.

Il s’agit donc de pouvoir questionner des données d’un genre particulier, massives, non structurées, arrivant dans des flux continus et avec un débit important.

On parle des 3 V (selon les sources certains vont même vers 4 voire même 5.)

  • Volume : décrit la quantité des données générées.
  • Vitesse (Vélocité) : décrit la vitesse à laquelle arrivent les données
  • Variété : décrit la nature même de ces données qui viennent de multiple sources et sous formats différents (structurée ou non, Texte ou multimédia, Web, Réseaux Sociaux, Fichiers, Bases de données, etc).

L’activité des utilisateurs de l’Internet produit un flux continu et un volume impressionnant de données dont la nature varie selon les applications et les usages. Nos simples faits et gestes intéressent tout le monde (entreprises locales ou mondiales (GAFA, NATU, gouvernements, et  bien d’autres). Nos opinions, commentaires, coordonnées, trajets, déplacements, consommations, préférences, émotions, sont collectées, stockées et analysées, pour toute fin utile.

2

Les immenses volumétries d’utilisateurs et de données que manipulent les géants du Web ont conduit à réinventer l’informatique. Ainsi est né Hadoop, framework libre et open source destiné à faciliter la création d’applications distribuées (au niveau du stockage des données et de leurs traitement) et échelonnables (scalables) permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Ainsi chaque nœud est constitué de machines standards regroupées en grappe. Tous les modules de Hadoop sont conçus sous une hypothèse fondamentale ; les pannes matérielles sont fréquentes et qu’en conséquence elles doivent être gérées automatiquement par le framework.

Hadoop est la solution la moins coûteuse sur le marché car 100% OpenSource, il est le plus rapide actuellement pour les traitements parallèles. Il est la meilleure solution aujourd’hui pour tous les problèmes liés à l’analyse et le traitement de données  massives.

3

En à peine dix ans, Hadoop est devenu la composante clé de la majeure partie des solutions BigData proposées sur le marché.

M. Benyoussef a insisté sur le fait que , tout projet BigData doit être produit sur des standards ouverts. Les normes ouvertes sont tout aussi importantes que l’Open Source, elle garantissent la durabilité des développements grâce à l’adhésion d’une grande communauté, elles garantissent également la portabilité de la solution quelque soit le fournisseur. En choisissant les standards ouverts et l’open source, nous gagnons la compatibilité avec tout un écosystème.

Le BigData, n’en est qu’à ses débuts, les larges volumes de données disponibles et les nouvelles technologies pour leur traitement devraient, notamment, permettre  de vérifier des théories scientifiques dont les démonstrations par les données étaient jusque là éludée. En effet, les technologies disponibles jusque ici étaient incapables de travailler des volumes aussi importants.

Pour appréhender ces  nouveaux défis et bien d’autres, de nouveaux métiers ont été créés.   Il s’agit notamment de Chief Data Officer (CDO), Data Scientist ou Data Analyst.

Chief Data Officer (CDO) : la responsabilité du CDO concerne les données et leur état : Valeur, Qualité, Fiabilité et doit en garantir la Cohérence et Gouvernance. Les données peuvent être d’origine interne ou externe, privée ou publique

Data Scientist : est chargé de développer les outils adaptés au besoin pour Collecter, Analyser et faire parler les données numériques et, de les présenter sous un format simple et compréhensible (DataVizualisation)

Data Analyst : va manipuler les données une fois que la base est opérationnelle, afin de faire remonter les informations nécessaires pour les prises de décisions.

Pour conclure, M. Benyoussef affirme que l’un des obstacles majeur à l’adoption du BigData n’est autre que le manque de ressources et de compétences qualifiées. L’arrivée du Bigdata c’est aussi l’occasion de mettre à niveau les ressources humaines.  L’évolution est inéluctable pour tous les métiers ;  Marketing , Vente, Architectes, Web Développeurs Web, Administrateurs Réseaux et DBA, etc. Pour accompagner ce changement, des programmes de formations adaptées sont nécessaires.