Records management, ECM, gestion de l’information : quel rôle pour les archivistes ?


La séance du 8 novembre 2010 du forum des archivistes genevois a été l’occasion pour Alain Dubois, archiviste paléographe, de présenter une réflexion très pertinente à propos du rôle de l’archiviste et basée sur son expérience à l’Etat du Valais (Suisse).

Pour ceux qui pensent que rien ne vaut les retours d’expérience du terrain pour aller de l’avant dans nos réflexions, prenez le temps de parcourir cette présentation.

ECM 2.0 : Interopérabilité, Standards et Certification


La gestion électronique de documents, et plus généralement de contenus, continue à évoluer au gré, notamment, des déploiements des applications du modèle 2.0.

Quand Frédéric Charles écrit dans un commentaire publié sur ce blog : »Ceci pour dire que le plus compliqué pour aborder ce sujet est de faire comprendre aux éditeurs et consultants que le Content Management tel qu’il le pratique depuis 10 ans n’a plus d’avenir et qu’il doivent intégrer le 2.0. Ensuite la technologie suivra et le ticket d’entrée n’est pas élevé (sinon on ne serait pas partis). L’effort est à mettre sur les usages » en parlant de son expérience à la Lyonnaise des Eaux, il remet en quelque sorte l’église au milieu du village en rappelant qu’in fine c’est l‘utilisateur qui « bâtit » la solution !

Au delà de l’intégration du 2.0, les éditeurs ne peuvent plus faire l’économie de la mise en oeuvre des technologies d’interopérabilité ni de l’obtention de certifications.

L’interopérabilité au service de la fluidité et de la circulation des contenus

Tout le monde le dit, certains l’écrivent, les analystes le proclament, l’entreprise 2.0 est basée sur un modèle qui, entre autre, bannit les cloisonnements entre référentiels (généralement verticaux) pour une approche non pas transversale mais mutualisée (donc ouverte) !

Etant entendu qu’au delà des voeux pieux et d’une certaine candeur, nous savons tous qu’il y a une technologie en production derrière ces solutions, permettez-moi de revenir sur un standard d’interopérabilité lancé par les éditeurs et à propos duquel Nuxeo a beaucoup communiqué ces derniers temps : je veux parler de CMIS !

CMIS doit permettre aux applications de s’affranchir des éditeurs (en terme de spécifications techniques).
Aujourd’hui, la valeur ajoutée est dans la gestion, la distribution et l’accessibilité du contenu au-delà de tout logiciel.
Ceci favorise l’agilité ainsi que la réflexion sur des nouvelles méthodes de gestion de l’information stratégique, et cela va bien au-delà des spécificités du référentiel développé par tel ou tel éditeur.

Laurence Hart précise, dans la présentation ci-dessous, 3 cas dans lesquels la circulation des contenus bénéficient des atouts de CMIS  :

  • référentiel à référentiel
  • application à référentiel
  • fédération de référentiels

CMIS est une première étape vers l’interopérabilité, mais le monde de la gestion de contenu propose d’autres normes potentielles : PDF/A pour la conservation à long terme de documents électroniques, Dublin Core pour les métadonnées ou encore OpenSocial en tant que moyen pour faciliter la collaboration en ligne, les échanges sociaux  et leur intégration avec les solutions ECM « classiques ».
La définition des référentiels se fait au regard du respect des standards tels PRONOM [formats de fichiers], IANA [types MIME], ICAISO 639OAIS, Moreq2 et des l’exigence d’interopérabilité.

Les organisations qui souhaitent rester compétitives et réactives doivent réfléchir au-delà du référentiel unique.

La certification au service d’un espace de confiance

DOD 501.2, Moreq 2, les exigences de conformité ne manquent pas et qu’elles soient d’origine européenne ou nord-américaine, elles soulignent à quel point il est essentiel pour les solutions de gestion de contenus d’apporter également une réponse en terme de construction d’espace de confiance.

Il n’est pas surprenant de constater que les solutions qui communiquent le plus aujourd’hui à propos des certifications DOD (records management) sont des solutions portées par le monde de l’open source : Alfresco, Nuxeo, alors que IBM, EMC, Oracle, Microsoft, Xerox, Vignette et OpenText, bien que disposant de solutions également certifiées, sont plus discrets sur ce sujet.

Au-delà des questions d’argumentaires marketing, il est patent que l’ECM 2.0, qu’il soit issu de monde de l’open source ou de celui des éditeurs plus traditionnels, doit intégrer des fonctionnalités du type records management mais surtout prouver sa capacité, par les certifications dont les solutions disposent, à assurer pleinement la confiance dans les systèmes et les contenus.

Il y a quelques semaines, je publiais une note de « prévision » quant aux acteurs de l’ECM, note basée sur 5 règles du jeu :

  1. avoir une taille critique (a priori le jeu est réservé aux majors)
  2. avoir une offre cohérente incluant :
    1. Master data management
    2. Business Intelligence
    3. Records Management
    4. eDiscovery
    5. Fédération de contenus (ECM) et support des applications traditionnelles mais également SharePoint, emails ainsi que tous les fichiers produits par les collaborateurs
    6. Web Content Management
    7. Architecture 2.0
  3. supporter les médias et réseaux sociaux
  4. disposer d’un écosystème performant
  5. supporter le cloud (privé et/ou public)

Aujourd’hui, il nous faut probablement préciser l’importance des standards, y compris des standards d’interopérabilité.


La gouvernance de l’information : une affaire trop sérieuse pour être laissée dans les mains des… ?


Qui pour prendre en charge, la stratégie et les programmes de gestion des actifs informationnels ?

La gouvernance de l’information est une affaire sérieuse, très sérieuse et probablement TROP sérieuse pour être laissée dans les SEULES mains des …….

1) informaticiens
Vous souvenez-vous du fameux tube des années 2000, ingénieur informaticien ?
– non, cliquez ici (ça a très mal vieilli !, vous êtes prévenu)
– oui (tant mieux, on peut continuer !)

Ce tube (sur la toile francophone) a révélé, par une dérision (de mauvais goût), la fin de la suprématie et de l’exclusivité des informaticiens sur les questions de traitement de l’information.

Les équipes informatiques sont en charge du bon fonctionnement des systèmes et des solutions décidées dans l’entreprise.
Leur rôle est essentiel et va au delà des préoccupations purement ou strictement techniques pour garantir le meilleur niveau de services.
Il s’agit pour les responsables informatiques, urbanistes, architectes et développeurs d’apporter en permanence la technologie la plus adaptée et la plus sure, l’organisation la plus agile, le ROI le plus avantageux, le TCO le plus acceptable, etc.
Et vous voudriez qu’en plus ils s’occupent de gouvernance de l’information !

Non, les équipes informatiques sont là pour soutenir l’entreprise dans sa mutation.
Elles testent, paramètrent, développent, intégrent, mettent en production, assurent le suivi, etc., les outils et les solutions qui servent de socle technique.

Les directions informatiques se soucient peu de la valeur de l’information, mais beaucoup plus de son coût (production, stockage,conservation, restitution, circulation, exploitation, sécurisation, etc.)

2) archivistes et records managers
Alors, vous me direz que la gouvernance de l’information, c’est une affaire à laisser entre les mains des archivistes et autres records managers.
Entre valeur patrimoniale, valeur « légale« , valeur « marchande« , qu’en est-il pour définir les actifs informationnels de l’organisation ?

Le « records management » ou l’archivage considère essentiellement la valeur patrimoniale et « légale » pour définir l’actif informationnel et supporter une politique de gouvernance de l’information, mais ce n’est pas à mon avis suffisant :

  • Le records management est statique alors que la gouvernance de l’information est dynamique,
  • le records management est réactif alors que la gouvernance de l’information se veut pro active,
  • le records management est principalement centré sur la rétention alors que la gouvernance de l’information est au service de l’exploitation des informations en support à la croissance des affaires.

A l’instar des services informatiques qui sont plus soucieuses du coût que de la valeur de l’information, les archivistes s’intéressent plus à la valeur patrimoniale et/ou « légale » de l’information qu’à sa valorisation par les métiers.

3) directeurs juridiques, risk managers et avocats
S’il n’est pas pertinent de laisser la gouvernance de l’information dans les seules mains, ni des équipes informatiques, ni des archivistes,  doit-elle revenir aux affaires juridiques ?

En effet, dans la gestion des actifs informationnels. il y a une dimension légale, respect des règles, recherche de conformité, dont seuls les départements juridiques sont aptes à superviser la mise en oeuvre.

Pourtant, ni les responsables juridiques, ni les risks managers ne peuvent prendre en charge à eux-seuls cette responsabilité.
Les responsables juridiques ne se soucient pas de la valeur de l’information, ils cherchent à protéger l’organisation contre les risques liées à l’existence de l’information !

Pour les responsables informatiques, le coût est souvent plus important que la valeur, pour les archivistes, la conservation est prépondérante alors que pour les juristes, c’est la réalité du risque inhérent à l’information et c’est pourquoi, ils ont tendance à tout conserver, « juste au cas où » !

4) exécutifs
Bien évidemment, ce rôle incombe à l’exécutif et aux dirigeants.
Pas si sur !
S’il est évident que les niveaux exécutifs des entreprises doivent s’intéresser à ces questions comme ils se passionnent quand il s’agit d’actifs financiers ou autres, il n’est pas certain qu’ils aient plus de pertinence que les autres pour instruire une réelle politique de gouvernance de l’information, par contre, eux seuls peuvent en décider.

Au niveau exécutif, l’information peut être analysée et comprise, selon les influences déterminantes, comme un coût, une obligation, un levier, etc. et il leur devient plus difficile de gérer, seuls, cette question.

L’émergence d’un nouveau rôle
Les réflexions autour de la valorisation et la gestion des actifs informationnels des organisations
vont contribuer à l’émergence de nouveaux rôles à propos desquels certains analystes n’hésitent pas à parler de formation dans les toutes prochaines années (voir le programme d’IBM).

C’est un manager qui sait gérer une équipe pluridisciplinaire réunissant des juristes, des spécialistes métiers, des responsables marketing, des architectes/urbanistes et des utilisateurs informatiques.
Cette équipe a mission d’instruire le programme de gouvernance de l’information à des fins de décision par l’exécutif au niveau global ainsi que des différents métiers.

Son rôle consiste à :

  • mener à bien la synthèse de tous les besoins,
  • valider l’évaluation des actifs informationnels (au regard des différents besoins),
  • instruire les processus décisionnaires
  • contrôler la mise en application des outils et des nouveaux services qui en sont issus.

La gouvernance de l’information est une affaire trop sérieuse pour ne pas être laissée dans les mains d’un collège d’experts doués de bon sens et soucieux d’efficacité et de pragmatisme.

Les impacts technologiques de la gouvernance de l’information


La gouvernance de l’information est une stratégie qui oblige à de nombreuses évolutions, modifications et adaptations technologiques.

A lire les nombreux articles et notes à propos de la mutation numérique que nous vivons, il est quelquefois surprenant de constater le peu d’intérêt qu’il peut y avoir pour la technologie qui supporte ces changements.

Je n’ai pas les compétences des ingénieurs qui travaillent au quotidien sur les technologies de demain, mais il me semble que les impératifs de transparence, de confiance et d’efficience, sont autant de contraintes d’un strict point de vue technique.

En plaçant l’homme au coeur des processus, en affirmant la valeur de l’information, le monde 2.0 et ses slogans participatifs anticipent déjà l’automatisation des échanges entre processus et systèmes ainsi que l’aboutissement d’une certaine forme d’intelligence artificielle qui seront probablement les caractéristiques de notre proche avenir 3.0.

Les solutions de gestion de contenu

Le marché de l’ECM est, à priori, celui qui a le plus à gagner de cette mutation.
En effet, la dématérialisation est un réalité pour toutes les organisations et les solutions d’ECM ont souvent été développées en réponse à des projets de ce type.
Pourtant, ces solutions sont aujourd’hui confrontées à des besoins qui les obligent à se redéfinir d’un point de vue fonctionnel et bien évidemment technique.

  • Les images, les fichiers audio et vidéos sont de plus en plus utilisés sur l’internet que dans les réseaux d’entreprises.
  • Les documents sont souvent produits « à la demande » ou à la volée pour une consultation en ligne par des applications qui ne sont plus intégrées dans des processus « batch » d’impression en masse.
  • Les contenus ont des valeurs patrimoniales, légales, métiers, différentes.
  • Les solutions sont dans le cloud ou mises à disposition en SaaS.

Pour répondre à ces exigences, les éditeurs font évoluer leurs solutions, développent ou achètent les « briques » qui leur manquent.
La gestion de contenu est devenue bien plus complexe que les solutions d' »input management » ou d’imaging telles que présentées il y a encore quelques mois.
Il faut savoir apporter des réponses pertinentes  dans des environnements fonctionnels très différents :

  • la verticalisation ou comment valoriser les contenus : une réponse pertinente intégrée aux applications métiers.
  • la solution d’infrastructure, du type SharePoint à partir de laquelle on met en oeuvre de réponses bâties sur un socle technique homogène
  • les contenus en ligne et comment assurer fluidité et sécurité autour de contenus très diversifiés et volatiles
  • les réseaux sociaux, le KM, les wikis ainsi que tous les contenus partagés, mis à disposition tant en interne qu’au delà des « frontières » de l’entreprise.

Les évolutions techniques attendues
Les éditeurs ont déjà avancé sur plusieurs fronts et l’un d’entre-eux me paraît essentiel : l’interopérabilité !
Ainsi le travail autour de CMIS a probablement contribué à valider le fait que l’information est plus importante que la technologie qui la supporte.
Ainsi, la question de la mixité, et donc de la migration, des solutions en production pourrait ne pas ralentir l’évolution des applications en service.
Il est également important que ces solutions disposent des fonctionnalités minimales dont on devine à quel point elles seront importantes demain :

  • servir ou être intégré dans des applications métiers (BPM, solutions collaboratives, réseau social d’entreprise, contenus web, etc.)
  • supporter toutes les sources de production de contenus (legacy, ERP, CRM, RSE, collaboration, agrégateurs de contenus en ligne [Social news curation], etc.)
  • être disponible dans le Cloud
  • intégrer des fonctions pour l’eDiscovery, c’est à dire, au-delà d’un référentiel de métadonnées et de contenus,  forcer l’application des règles (contrôle et mesures) de gouvernance à l’ensembles des contenus éligibles
  • disposer de fonctions avancées de recherche (sémantique)

Au dela de l’ECM

La fédération de contenus est un thème porteur mais pas encore une réalité.
C’est pourtant sur ce terrain que les technologies vont devoir évoluer rapidement.
Il faut rappeler que la maîtrise de l’information n’est plus réservée aux services informatiques et que la fédération des contenus non structurés (interopérabilité des solutions (cf. CMIS) avec les contenus structurés ouvrent de grandes perspectives.

Annoncée un peu prématurément en novembre 2009 à Las Vegas par IBM, la convergence données structurées (base de données) et non structurées (documents formatés ou non, emails, vidéos, etc.) est INCONTOURNABLE !

Il existe de nombreux ponts entre données structurées et business intelligence, mais la mise à disposition d’un ou d’une catégorie d’outils du type MDM pour les documents et les contenus permettrait d’aller plus vite dans cette fédération tant annoncée.

La fédération de contenus est essentielle car elle apporte :

  • une réduction importante des redondances d’information (duplications inutiles, couteuses et risquées)
  • la valorisation par l’évaluation et la certification des données clefs
  • l’accélération des échanges d’information dans et au delà de l’entreprise
  • la mise à disposition en toute sécurité des informations pertinentes et essentielles dans leur contexte.

Ces évolutions technologiques sont l’objet de réflexions et de projets internes tant chez les éditeurs que dans les bureaux des urbanistes et autres architectes qui travaillent en étroite collaboration avec les métiers.

Pour préparer les solutions de demain qui passeront certainement pas une automatisation de l’évaluation et de l’échange des informations et des contenus par les systèmes, il est essentiel aujourd’hui de développer les fonctionnalités nécessaires.

Le réfrigérateur qui communique automatiquement avec les épiceries en ligne pour passer commande au meilleur prix les denrées dont il assure la conservation, ce n’est pas encore disponible chez votre revendeur préféré, mais demain… enfin, on verra…. (vous pouvez déjà l’apercevoir ici !)

Tout ceci est une histoire de CONFIANCE et dans ce domaine il est certain que les technologies avancent également très rapidement !