Temps de lecture estimé : 6 minutes
Architecture : Le système d'information, qui s'est organisé depuis son origine autour des fonctions, est en train de basculer progressivement vers les données. Cette inversion des pôles change déjà beaucoup de choses. Il est donc temps de se poser la question de la nouvelle boussole à utiliser pour trouver le Nord.
01. Un nouveau paradigme du SI orienté donné.
02. Organiser la circulation plutôt que le stockage.
03. Vers de nouvelles architectures orientées données.
"Diamonds are forever" et c'est peut-être ce qui est en train de se produire pour les données : "Data are forever". Le SI qui s'est organisé depuis son origine autour des fonctions est en train de basculer progressivement vers les données.
Cette inversion des pôles change déjà beaucoup de choses. Il est donc temps de se poser la question de la nouvelle boussole à utiliser pour trouver le Nord. Ce billet essaye d'en montrer quelques contours.
Le SI s'est traditionnellement organisé autour des applications et donc des fonctions, au fur et à mesure de sa croissance dans l'entreprise.
Les données étaient propres à chaque application, ce qui a vite posé un problème de cohérence globale avec de multiples redondances.
Mais aussi des problèmes de gouvernance quand il fallait trouver une maîtrise d'ouvrage "neutre" pour les applications transverses comme le décisionnel et le collaboratif (partagées par tous) ou même la clientèle (partagées par le marketing, le commercial et la communication, a minima).
Plusieurs réponses se sont alors développées. D'abord l'ERP qui prône la base de données unique pour toute l'entreprise, mais aussi le "master data management" - MDM - qui se proclame garant des données de référence au service des applications. Cependant aucune de ces réponses n'a pour l'instant montré sa pertinence pour gérer toutes les données de l'entreprise. Peu d'entreprises ont un ERP unique comme SI, et les projets de MDM ont des difficultés à justifier leur ROI donc leur financement.
Et l'avenir ne sera pas plus favorable à cette situation, puisque la tendance est de plus en plus au développement de ses applications "front office" ou différenciantes, sur des plateformes PaaS ou IaaS (ce qui va à l'encontre de la logique ERP et progiciels), et le rythme imposé par l'économie numérique demandent souvent des applications temporaires (le temps d'une conquête ou d'un événement) avec de multiples données externes (hors MDM).
Et si finalement la donnée était éternelle et les applications jetables ? Et si la valeur du système d'information était sa capacité à collecter, gérer, faire circuler les données ? Et si les données ne devaient surtout pas être dans les applications, mais bien gérées à part, les applications venant les utiliser quand elles en ont besoin ?
GreenSI en est convaincu depuis longtemps, et a traité ce sujet en 2014 dans la revue Veille Magazine d'août 2014. Mais en 2016, avec le développement des objets connectés qui amènent de nouvelles architectures, c'est l'occasion de revisiter la position des données dans le SI et quelques-unes de ses conséquences.
Techniquement, entre l'ERP et le MDM, on est certainement plus près du MDM que le l'ERP. Cependant avec une vision beaucoup moins structurante (ou "régalienne") que celle prônée par les démarches MDM, car on doit traiter les données internes ET externes, sans préjuger des usages applicatifs de demain.
Cela n'est pas sans rappeler la philosophie de Hadoop pour créer des applications distribuées et scalables, et sa logique de stockage (HDFS) en rupture par rapport aux bases de données traditionnelles.
On cite souvent la métaphore de la donnée comme l'or noir du XXIe siècle par référence au pétrole et à sa valeur.
Certes la donnée a de la valeur, mais pour GreenSI c'est parce qu'elle est une marchandise qui circule et qui s'enrichit, et non parce qu'elle se stocke. Et contrairement au pétrole, les données on use coût de production marginal très faible qui en fait une matière inépuisable qui génère de fortes externalités positives (nouveaux usages, développement économique, etc.).
Le piratage des comptes de Yahoo! Cette semaine montre la valeur des logins à une messagerie et leur réutilisation à l'infini pour d'autres usages comme de pirater d'autres comptes de la personne (qui a mis le même mot de passe) et de savoir où et ce qu'elle achète sur internet. Les stocks de données posent des problèmes de sécurité. Autrefois on attaquait les diligences parce qu'elles transportaient l'or des banques, aujourd'hui on attaque les grandes bases de données. L'Europe va d'ailleurs légiférer en 2017 pour engager la responsabilité des entreprises qui gère ces bases de données pour ce qui est des données personnelles.
Mais revenons au SI dans ce nouveau paradigme où la donnée est une marchandise qui circule et a de la valeur.
Le MDM reste pertinent pour l'interne de l'entreprise et pour fixer des référentiels, mais l'enjeu de l'entreprise devient celui de collecter et partager à grande échelle et avec son écosystème. C'est dans ce contexte que s'inscrivent toutes les initiatives autour des API ouvertes, et de l'open innovation avec des tiers, pour construire des systèmes de collaboration à grande échelle (chaînes logistiques, Smart City, ...).
Un MDM, sans API pour exposer les données en interne ou en externe, laisse donc un SI au milieu du guet à l'ère du digital. Ce n'est pas suffisant.
Et puis l'externe peut avoir une vision différente des données par rapport à l'interne. L'enjeu de l'entreprise est de s'enrichir de ces visions pour proposer un consensus global, qui, s'il devient une référence partagée par tous, lui donnera un avantage compétitif. On a vu sur internet la féroce bataille livrée par les API de Facebook, Google ou LinkedIn (Microsoft) pour devenir LA référence en matière de login à un service en ligne. C'est cette idée qu'il faut avoir en tête quand on aborde le MDM à l'ère du digital, et non plus celle, caricaturale, d'arriver à réconcilier deux départements internes de l'entreprise sur la définition commune d'un objet...
La collecte de données est faite sans préjuger de ses usages, donc des applications qui vont les utiliser (voir Que penser des objets connectés en entreprise?). Les données traversent successivement une couche de collecte, puis de traitement, pour être utilisées par des applications d'un nouveau genre, moins axées sur les transactions, et plus sur la supervision voire l'anticipation.
La température relevée dans un entrepôt permet de superviser un risque d'incendie, mais peut aussi être utilisée dans un modèle prédictif, ou tout simplement affichée sur un panneau dans l'usine. L'entreprise va aller chercher en interne ou en externe toutes les données pertinentes par rapport à ses activités, puis va réfléchir aux usages qu'elle pourrait en faire.
On assiste donc aussi sur le plan de la méthode à une inversion de l'approche. Moins de temps passé en amont à chercher à tout définir de façon détaillée, et plus dans l'idéation, l'open-innovation et l'agilité pour faire émerger progressivement les usages.
C'est un peu la conséquence de l'augmentation exponentielle du nombre de données disponibles.
Les applications transactionnelles sont encore pertinentes avec des interfaces classiques accessibles avec des menus ou des boutons pour créer des commandes ou des devis à l'unité. En revanche, on a besoin de nouvelles interfaces pour aller chercher l'information et répondre à des questions précises. C'est ce que l'on retrouve dans les assistants mobiles qui sont sortis en 2016 comme celui de Google ces derniers jours. À une question posée, ils nous suggèrent des options et vont chercher l'information où qu'elle soit stockée.
IBM va peut-être plus loin en ajoutant de l'intelligence artificielle dans ce questionnement et l'a montré dans une vidéo de présentation de Watson qui aide le conseil d'administration d'une entreprise à faire des évaluations d'entreprises en direct et choisir des cibles pour acquisition dans un secteur. Les consultants financiers ont des cheveux blancs à se faire si cette vidéo se réalise...
On attend dans les prochains mois la démonstration de Facebook qui va sortir son "IA", à suivre.
Quoi qu'il en soit, ce sont des indices qui nous montrent que les données doivent être accessibles indépendamment des applications pour être réutilisées par ces interfaces d'un nouveau genre.
Dernier indice, et pas des moindres, la nouvelle loi sur l'économie numérique de 2016 fixe les obligations en matière d'opendata pour les collectivités locales, mais aussi pour tous ceux qui travaillent par contrat avec les collectivités locales. La Ville de Paris a anticipé cette loi et a déjà ajouté dans ses clauses d'achats ces obligations.
Si cette ouverture des données en dehors de la collectivité est exigée en quasi-temps réel, comme cela se préfigure dans le domaine du transport, cela veut dire que le producteur de la donnée a une architecture qui supporte ce besoin, en plus de gérer ses données dans ses applications de gestion. Ainsi les opérateurs de bus doivent pouvoir dire aux applications externes, qui réutilisent ces informations, quand arrivera le prochain bus. Et on voit mal comment arriver à cela avec du stockage de données puis un batch nocturne ;-)
L'opendata va continuer de développer les usages API et flux de données.
La mesure impactera tous ceux qui utilisent ou produisent les données dites "d'intérêt général", mais compte tenu du poids du service public en France et dans les économies locales, c'est tout un pan de l'économie qui est concerné. Bien sûr la CNIL sera garante de l'anonymisation et Etalab conseillera les entreprises pour la contractualisation de ces échanges.
En synthèse, les API, objets connectés, assistants, intelligence artificielle et opendata, préfigurent les contours d'une nouvelle façon d'organiser les données dans le SI, et certainement d'organiser le SI lui-même. Les interfaces deviennent les nouveaux domaines porteurs de valeur et d'agilité dans un monde digital. Peut-être une réflexion à lancer dans les DSI qui ne croient encore uniquement aux applications pour gouverner le SI...
Source : ZDNet