Actifs informationnels vs Données


Le débat autour de la gestion de l’information et des données n’est-il qu’une illustration de la différence des points de vue des métiers et des techniques ?

Le modèle 2.0 accélère la croissance du volume de données disponibles mais il se développe autour de solutions de partage, de collaboration et de diffusion de l’information, est-ce pour autant un paradoxe ?

La donnée est technique

Un monde de données

La production de données croît à très grande vitesse ces dernières années. Ces données sont stockées dans les outils que nous utilisons, à savoir PC, tablettes et appareils mobiles.
Elles sont enregistrées à notre demande ou à notre insu et nous n’avons aucun contrôle sur leur durée de vie, leur utilisation par des tiers (programmes ou individus), leur exploitation et leur protection.

Ceci est généralement du ressort des équipes techniques et de la direction informatique dans les entreprises et de tout à chacun pour les communications dans des espaces sociaux ou personnels.

S’il est un problème avec les données, c’est bien qu’elles persistent dans les mémoires des systèmes (souvent sous forme dupliquée), quand bien même elles ne servent plus à grand chose, si leur cycle de vie n’a pas été défini (donc leur destruction programmée) a priori .

Nous sommes aujourd’hui confrontés à la réalité d’un « gisement à ciel ouvert » de données personnelles (voir l’essai de taxonomie) que nous acceptons de confier à des services tiers pour des usages que nous ne connaissons pas et à propos desquels nous n’avons aucune (ou si peu) garantie (malgré la CNIL en France ou l’utilisation de solutions techniques comme nous le précise la note publiée sur Le GrenierduNet) !

La prolifération des données n’est pas sans poser d’autres problèmes et il semblerait d’après certaines études que le volume de données produit dépasse déjà de 35%  les capacités de stockage.

Archivage dans le Cloud

Archivage dans le Cloud

l’information est un actif

L’information est née de la contextualisation et de l’interprétation des données.
Elle est donc étroitement liée aux systèmes en production, sans lesquels, elle n’existe pas.

Pourtant sa durée de vie est différente et l’une des caractéristiques de l’information est sa volatilité et sa rapide obsolescence.

En effet, à la différence de la donnée, l’information apporte une très forte valeur ajoutée à un moment donné et si sa conservation est utile à des fins patrimoniales, elle l’est plus rarement à des fins uniquement métiers.

Dans l’entreprise, mais également pour le particulier, l’information est le plus souvent représentée sous une forme reposant sur l’utilisation d’un support de communication (écrite [Output Management], visuelle ou verbale) et ceci contribue largement à sa valeur ajoutée.

La valeur de l’information est déterminée par la pertinence et la fiabilité des données exploitées ; elle est révélée et donc rendue utilisable par sa mise en forme, mais n’oublions pas qu’au-delà des traitements automatiques, la valeur de l’information réside également dans la mise en perspective et la réflexion (objective ou subjective) autour du matériau brut que représentent ces données !

Data - Information - Knowledge - Wisdom

Data - Information - Knowledge - Wisdom

 

 

Publicité

(e)Promotion, (e)Réputation, (e)xposition,…, (e)ntreprise (e)t moi


L’IFOP, sous la direction de Frédéric Micheau a récemment réalisé un sondage sur l’utilisation du « personal branding » au service des marques pour le compte de l’Atelier.

Dans le rapport disponible en téléchargement, il y beaucoup d’informations très intéressantes du point de vue des initiateurs du sondage mais également d’un point de vue plus général, notamment dans la première partie de l’étude à propos de la diffusion des informations sur Internet.

Une exposition maitrisée ?

Nous sommes très nombreux à publier (divulguer?) des informations personnelles sur internet (53% des sondés) et 33% des personnes interrogées confirment poster des informations les concernant au moins une fois par semaine !

Il est également intéressant de constater que beaucoup d’entre-nous communiquent également des informations professionnelles sur le réseau (30% selon les résultats publiés).

Si le phénomène peut surprendre, il reste cependant très lié à l’explosion de l’utilisation des réseaux sociaux en France et il n’est pas surprenant de lire que 58% des sondés publient ces informations sur Facebook tandis que le second canal, le blog à égalité avec Viadeo, n’est utilisé que par 14% des personnes interrogées.

La maîtrise de l’exposition sur internet dépend de la maîtrise des canaux utilisés et en utilisant aussi largement Facebook, il est probable que beaucoup d’entre nous avons perdu le contrôle de notre communication à des fins personnelles, amicales et/ou professionnelles.

Have we share too much information?

Have we share too much information?

Les garde-fous

La question est posée dans l’infographie ci-dessus, sommes-nous en train de partager TROP d’information ?

En ce qui concerne les informations professionnelles (incluant bon gré mal gré des données concernant l’employeur, voire la marque), la prudence semble plus importante et il est rassurant de constater que les sondés publient ce type d’information pour « la bonne cause » : principalement développer son réseau, trouver un job, mais peu pour recruter (seulement 3%).
Il s’agit bien d’une communication d’informations professionnelles à des fins uniquement personnelles et cette communication se fait en liberté « surveillée ».
21% des sondés qui ne publient pas d’information professionnelles affirment ne pas en avoir le droit tandis que 33% craignent que l’utilisation qui en sera faite n’est pas conforme à leurs attentes.

Enfin, il peut être rassurant de lire que 82% des personnes ayant participé au sondage se disent  préoccupés (très ou assez) par la confidentialité des données personnelles  publiées sur Internet alors qu’ils ne sont plus que 65% en ce qui concerne les informations professionnelles (on aurait aimé connaître le point de vue côté entreprise, mais qui côté entreprise ?).

Prenez le temps de lire le détail de l’étude et le compte-rendu de l’Atelier du 23 novembre mis en ligne par Fadhila Brahimi.

Pour ce qui est de la protection des données, voyez nos précédentes notes et surtout c’est VOUS qui êtes responsable de vos publications et de votre identité numérique.

Et en bonus, cette infographie sur l’utilisation des réseaux sociaux par les Fortune 100.

Réseaux sociaux et Fortune 100

Réseaux sociaux et Fortune 100 - mars 2010

La gestion de contenus part dans le nuage !


Beaucoup d’applications et de services que nous utilisons quotidiennement (surtout les applications mobiles) sont disponibles dans le cloud et, franchement, cela nous va bien !

Cloud computing : quelques statistiques

Cloud computing : quelques statistiques

La gestion de contenus (ECM – Magic Quadrant 2010 de Gartner) ne fait pas exception et avec la présentation préparée par SpringCM vous aurez une bonne appréciation des ses avantages :

ECM 2.0 : Interopérabilité, Standards et Certification


La gestion électronique de documents, et plus généralement de contenus, continue à évoluer au gré, notamment, des déploiements des applications du modèle 2.0.

Quand Frédéric Charles écrit dans un commentaire publié sur ce blog : »Ceci pour dire que le plus compliqué pour aborder ce sujet est de faire comprendre aux éditeurs et consultants que le Content Management tel qu’il le pratique depuis 10 ans n’a plus d’avenir et qu’il doivent intégrer le 2.0. Ensuite la technologie suivra et le ticket d’entrée n’est pas élevé (sinon on ne serait pas partis). L’effort est à mettre sur les usages » en parlant de son expérience à la Lyonnaise des Eaux, il remet en quelque sorte l’église au milieu du village en rappelant qu’in fine c’est l‘utilisateur qui « bâtit » la solution !

Au delà de l’intégration du 2.0, les éditeurs ne peuvent plus faire l’économie de la mise en oeuvre des technologies d’interopérabilité ni de l’obtention de certifications.

L’interopérabilité au service de la fluidité et de la circulation des contenus

Tout le monde le dit, certains l’écrivent, les analystes le proclament, l’entreprise 2.0 est basée sur un modèle qui, entre autre, bannit les cloisonnements entre référentiels (généralement verticaux) pour une approche non pas transversale mais mutualisée (donc ouverte) !

Etant entendu qu’au delà des voeux pieux et d’une certaine candeur, nous savons tous qu’il y a une technologie en production derrière ces solutions, permettez-moi de revenir sur un standard d’interopérabilité lancé par les éditeurs et à propos duquel Nuxeo a beaucoup communiqué ces derniers temps : je veux parler de CMIS !

CMIS doit permettre aux applications de s’affranchir des éditeurs (en terme de spécifications techniques).
Aujourd’hui, la valeur ajoutée est dans la gestion, la distribution et l’accessibilité du contenu au-delà de tout logiciel.
Ceci favorise l’agilité ainsi que la réflexion sur des nouvelles méthodes de gestion de l’information stratégique, et cela va bien au-delà des spécificités du référentiel développé par tel ou tel éditeur.

Laurence Hart précise, dans la présentation ci-dessous, 3 cas dans lesquels la circulation des contenus bénéficient des atouts de CMIS  :

  • référentiel à référentiel
  • application à référentiel
  • fédération de référentiels

CMIS est une première étape vers l’interopérabilité, mais le monde de la gestion de contenu propose d’autres normes potentielles : PDF/A pour la conservation à long terme de documents électroniques, Dublin Core pour les métadonnées ou encore OpenSocial en tant que moyen pour faciliter la collaboration en ligne, les échanges sociaux  et leur intégration avec les solutions ECM « classiques ».
La définition des référentiels se fait au regard du respect des standards tels PRONOM [formats de fichiers], IANA [types MIME], ICAISO 639OAIS, Moreq2 et des l’exigence d’interopérabilité.

Les organisations qui souhaitent rester compétitives et réactives doivent réfléchir au-delà du référentiel unique.

La certification au service d’un espace de confiance

DOD 501.2, Moreq 2, les exigences de conformité ne manquent pas et qu’elles soient d’origine européenne ou nord-américaine, elles soulignent à quel point il est essentiel pour les solutions de gestion de contenus d’apporter également une réponse en terme de construction d’espace de confiance.

Il n’est pas surprenant de constater que les solutions qui communiquent le plus aujourd’hui à propos des certifications DOD (records management) sont des solutions portées par le monde de l’open source : Alfresco, Nuxeo, alors que IBM, EMC, Oracle, Microsoft, Xerox, Vignette et OpenText, bien que disposant de solutions également certifiées, sont plus discrets sur ce sujet.

Au-delà des questions d’argumentaires marketing, il est patent que l’ECM 2.0, qu’il soit issu de monde de l’open source ou de celui des éditeurs plus traditionnels, doit intégrer des fonctionnalités du type records management mais surtout prouver sa capacité, par les certifications dont les solutions disposent, à assurer pleinement la confiance dans les systèmes et les contenus.

Il y a quelques semaines, je publiais une note de « prévision » quant aux acteurs de l’ECM, note basée sur 5 règles du jeu :

  1. avoir une taille critique (a priori le jeu est réservé aux majors)
  2. avoir une offre cohérente incluant :
    1. Master data management
    2. Business Intelligence
    3. Records Management
    4. eDiscovery
    5. Fédération de contenus (ECM) et support des applications traditionnelles mais également SharePoint, emails ainsi que tous les fichiers produits par les collaborateurs
    6. Web Content Management
    7. Architecture 2.0
  3. supporter les médias et réseaux sociaux
  4. disposer d’un écosystème performant
  5. supporter le cloud (privé et/ou public)

Aujourd’hui, il nous faut probablement préciser l’importance des standards, y compris des standards d’interopérabilité.


Agrégation et publication des contenus sociaux = output management 2.0 pour community manager ?


Les contours de l’output management 2.0 sont encore flous tant il est vrai que pour beaucoup d’acteurs et de « gourous », il n’est, et ne peut être, qu’une question technique et donc à traiter en dernier ressort.
Pas si sur ! , et l’agrégation de contenus (au delà des fils RSS) pourrait être considéré comme une évolution probable.

Récemment, j’ai eu le plaisir de rencontrer Edouard Lambelet, fondateur de SmallRivers et créateur de paper.li à l’occasion du prix Strategis décerné le mardi 16 novembre (au fait le lauréat est Poken).

Paper.li (cliquez ici pour découvrir et utiliser ce service) est présenté par certains comme un « automated curation tool« , c’est à dire une solution d’agrégation et de présentation de contenu, pour d’autres, il ne s’agit pas de « curation »

La discussion est ouverte et c’est le signe que ce type de services a du sens face à la déferlante d’information qui nous submerge, que certains ont déjà baptisée « infobésité » (infobesity), et à propos de laquelle vous pouvez lire la note publiée le 15 novembre.

L’union du Pull et du Push

A l’occasion de ce rapide échange avec Edouard Lambelet, il a été intéressé par l’emploi que je faisais de terme édition à propos de « Claude Super Daily » poussés sur Twitter deux fois par jour.

Twitter.com/ClaudeSuper

Twitter.com/ClaudeSuper

En effet, l’utilisation que je fait de service est uniquement de pousser de l’information que je juge intéressante (parce que je suis [NDLR suivre] les « émetteurs » sur Twitter) à défaut d’être toujours pertinente sous un format pratique (mise en page rappelant la presse papier), agréable à parcourir (thèmes, sections, textes, images, vidéos) et valorisant pour le « rédacteur en chef » que je suis malgré moi.

Un des atouts, à mon avis, de ce service est dans l’automatisation de la collecte des informations (pull), son organisation, sa présentation et sa diffusion (push) vers votre audience, votre public, votre cible quoi !

Les dangers de l’automatisation

Par contre, l’utilisation à des fins purement métiers de ce type de services n’est pas sans risque : la perte ou l’absence de contrôle.

Chacun sait que le contrôle des informations publiées en votre nom est un élément critique de votre crédibilité, de votre image, de votre e-reputation.

Les réseaux sociaux sont à l’origine de l’explosion des contenus et il est intéressant de pouvoir disposer de solutions faciles, intuitives pour « faire le tri » et relayer ce qui nous paraît pertinent.

Les outils d’agrégation du type paper.li représentent une nouvelle génération de services plus simples d’utilisation que Netvibes ou autres agrégateurs de RSS feeds, mais ils sont encore loin d’apporter les garanties nécessaires aux professionnels de l’information.

Paper.li/ClaudeSuper

Loin de faire concurrence à la presse traditionnelle pour le moment, ces services peuvent, à moindre coût (mise à disposition d’options de personnalisation, filtres, nouvelles sources, etc.) représenter une vraie alternative à toutes les publications internes (lettres, revues de presse, etc.) ou collégiales (symposium, congrès, conférences) qui sont souvent, il faut le reconnaître, de médiocre qualité au regard du travail fourni et des ressources employées.

Quant le réseau social (et le microblogging) devient prédominant et pertinent, il est nécessaire de pouvoir disposer de nouvelles solutions de push de contenus nés avec, ou grâce, à lui et donc particulièrement bien adaptées à ces contraintes : des solutions d’output management !