L’évolution des plates-formes de veille

Vers la fin des années 1990, le Web a été moteur pour les logiciels de veille : d’une part il offrait l’accès à d’innombrables sources d’information ouvertes, et d’autre part la naissance des intranets permettaient une autre pratique de la veille stratégique. Elle pouvait prendre pied directement dans les services et les métiers, en complément de la fonction documentation demeurant jusqu’alors le guichet unique d’accès à l’information qualifiée. D’une certaine façon, le web a permis de démocratiser la veille stratégique, en mettant l’information directement entre les mains des utilisateurs finaux. Les plates-formes de veille allaient être façonnées à ce moment-là : elles seraient utilisées dans le but de produire des rapports et des alertes. L’objectif devenait la mise en place de chaînes de production de flux documentaires filtrés et spécialisés : de la donnée ouverte à l’information. Surveiller des sites web, rapatrier les contenus ciblés, émettre des alertes et/ou diffuser des rapports réguliers. Ce schéma prévaut encore largement dans de nombreuses organisations.

Le Text Mining (l’analyse automatique de texte libre) a constitué un axe fort d’amélioration potentielle. Les objectifs étaient de deux ordres : classer les documents afin de les diffuser « aux bonnes personnes aux bons moments»,  comprendre le sens des documents afin d’identifier et de mettre en évidence des signaux faibles.

Les résultats de ces initiatives sont mitigés malgré les évolutions constantes du text mining. Si les progrès permettent  dans certaines conditions, de canaliser et d’accélérer la diffusion sélective des flux documentaires, ils ne permettent pas encore de pointer des signaux faibles, des menaces ou des opportunités de façon simple.

Est-ce à dire que les plate-formes de veille en sont réduites à « trier des documents » ? Surement pas. En revanche nous devons nous interroger sur les moyens et le timing nécessaire pour faire se rencontrer une capacité technologique avec de réelles contraintes et pratiques et métier. Autrement dit, quel est le juste et juste nécessaire vraiment utile et opérationnel  au quotidien, que la technologie devrait être en passe de délivrer aux veilleurs-analystes demain ?

Identifier une tendance, mettre en évidence un signal faible potentiellement annonceur de menace ou d’opportunité, ne repose pas uniquement sur la capacité d’un éditeur à développer un moteur d’inférence ou à « embarquer de l’analytics ». Le bouton magique n’existe pas en matière d’analyse de la concurrence et encore moins de l’environnement. Le passage d’une approche orientée documents à une approche orientée données, ne se résout pas non plus par l’implantation de tableaux de bords plus ou moins interactifs, ni de cartographies d’information plus ou moins fourre-tout, mais surtout compliquée à mettre en œuvre, à maintenir en condition au quotidien une fois passé l’effet de démonstration, voire de prototype dans le meilleur des cas. Un retour en arrière nous permet d’identifier les limites et les lacunes de la cartographie automatique de corpus documentaires, dont l’objectif était d’identifier les signaux faibles. Essayons de ne pas reproduire deux fois les mêmes erreurs : la compréhension fine de l’environnement et le repérage de ses facteurs d’évolution, ne reposent pas uniquement sur le Data Scientism et le Big Data.

Pour parvenir à la mise à disposition des solutions de veille stratégique de nouvelle génération, nous considérons que le défi que se doit de relever une plate-forme de veille évoluée, repose sur l’alignement de plusieurs piliers :

  • L’agrégation de flux de données hétérogènes et massifs, internes et externes ;
  • Le respect des contraintes de sécurité des firmes en termes de visibilité et d’accès aux données sources ;
  • La prise en compte de la temporalité des données ;
  • La possibilité d’interagir simplement avec – de requêter –  les flux entrants et historisés ;
  • La mise en scène des données à travers des dispositifs visuels non libres, mais orientés métiers ;
  • Et surtout, l’accompagnement et le soutien aux utilisateurs – au-delà des simples mais nécessaires hot lines et formations – à travers des services professionnels personnalisés.

L’enjeu auquel est confronté un éditeur de solution, n’est pas « que logiciel » au sens développement d’application, capacité à fabriquer des outils constitutifs de la plate-forme de veille idéale. Selon nous il est de deux ordres.

D’une part, il est pour une grande partie ancré dans la perception et la pratique culturelle de la veille. Malheureusement, il faut le reconnaître, l’industrialisation de la veille est un des parents pauvres de l’entreprise. A commencer par les budgets consacrés à sa mise en œuvre et aux conditions de son efficacité, qui sont bien en deçà et sans aucune  mesure comparables avec les budgets consacrés à la communication externe par exemple. Un autre frein au progrès, trouve son origine dans le turn over et la mobilité sociale au sein des firmes. Combien de « responsables de la veille » et combien de veilleurs ayant un réel pouvoir de décision et de réels moyens d’amélioration continue, restent effectivement en responsabilité, en position de capitalisation et de progrès, d’avantage que deux ou trois ans ?

Les offres logicielles tendent en général  vers une standardisation de l’offre plus ou moins modulaire, et une « course à l’armement »,  qui ne consiste bien souvent qu’en un empilement de nouvelles fonctionnalités, mais avec pour aboutissement une complexification de l’offre et au final de l’usage.

Il nous semble que l’attente des utilisateurs, n’est pas dans un outil magique qui aurait des capacités indépendantes de l’organisation au sein de laquelle il est implanté, quelles que soient la culture et les pratiques à l’œuvre de la veille, et quels que soient les personnels en charge de son exécution. Ce que nous percevons, c’est le besoin de solution, qui permette effectivement d’appréhender la complexité et la turbulence croissante de l’environnement. Et surtout : dans le respect des contraintes et des pratiques des firmes au sein desquelles ils sont déployés.

Comment parvenir à la réalisation de cette vision ? Le temps et les conditions de l’innovation ne se situent pas dans la sacro-sainte relation client, ni juste dans un club utilisateur. Elle se situe dans la rencontre  exploratoire mais organisée, du potentiel de la technologie – le savoir-faire et l’expérience de compétences logicielles réunies au sein d’une chaîne de valeur – avec des besoins impératifs et des contraintes métier, pressenties ou exprimées.

IScope modernise son offre et sa plate-forme KeyWatch, dans ce sens depuis sa création. Derniers exemples en date, 2015 a été marqué par deux investissements majeurs : la réalisation d’un partenariat fort et exclusif, avec la société Atelier Iceberg, spécialisée en DataViz (logiciel et méthodologie), et la mise sur pieds l’été dernier du KeyLab.

Articles récents