- De retour du Forum IES 2024 : intelligence économique, collaborative et artificielle
Un immense bravo à Ophélie Garnier, à tous les membres de 3AF, et la Région Grand Est pour l’organisation de cet événement hors norme, dont nous ne pouvons seulement regretter qu’il ne se tienne pas de manière annuelle tant ses apports sont riches pour l’ensemble de la profession.
J’ai pour ma part eu le plaisir de pouvoir participer au côté de Jordan JeamBenoit, Caroline Martin de l’Onera, Pierre Memheld de l’université de Strasbourg, à la restitution du groupe de travail initié par Franck Bourgine de la DGAC. Ce groupe a su rassembler des académiciens, chercheurs, industriels et éditeurs de logiciels pour mener un premier travail de consolidation et d’analyse des cas d’usages des IAs génératives dans le cycle de gestion de l’information. Affaire à suivre !
Immanquablement, l’IA générative aura été au cœur de nombreuses interventions du forum IES 2024.
Quelques enseignements et réflexions à la suite du forum :
Une grande similitude quant aux niveaux d’expérimentation, de prise en main et d’industrialisation de l’usage des IAs génératives au sein des organisations qui profitaient de IES forum pour partager leurs retours d’expérience. Nombreuses sont les équipes de veille et/ou d’intelligence économique qui ont pris le train de l’IA générative en marche et ont lancé des expérimentations ; sauté dans le wagon des montagnes russes du cycle de hype de l’IA génératives. Elles ont découvert avec stupéfaction, euphorie et excitation les capacités rédactionnelles des IAs génératives. Cependant, elles ont aussi été confrontées à leur limites : erreurs, hallucinations ou loupés des IAs génératives révélant le besoin primordial de vérifier toutes les productions présentant un niveau de criticité dans le cycle de gestion de l’information. Certaines de ces équipes, peu d’entre elles, en sont déjà au 3eme stade du cycle de la hype de Gartner, consolidant leurs premiers cas d’usages productifs.
Un consensus sur les apports potentiels des IAs génératives dans les différentes phases du cycle de gestion de l’information :
De nombreux cas d’usage en amont de la phase de synthèse :
-
-
- Aide au sourcing,
- Aide à la détection de mots clés,
- Aide à la constitution d’une ontologie,
- Aide au cadrage, à l’expression de besoin,
- Extraction de concepts ou d’entité nommées,
- Qualification de la présence de thématiques dans une liste de ressources données.
-
Avec des niveaux de confiance et de fiabilité des résultats acceptables mais qui continuent de nécessiter la présence d’un expert, d’un analyste pour corriger, affiner, valider les outputs des LLMs.
Des résultats encore bien trop aléatoires sur toutes les phases d’analyse et de soutien à la prise de décision, de recommandations de plan d’action, de communication ou d’influence.
Les forts enjeux organisationnels associés au développement de la maturité des organisations quant à l’adoption et la capacité de tirer des bénéfices tangibles de l’IA :
-
- Programme de sensibilisation interne,
- Mise en œuvre d’un programme de Test & Learn,
- Budget,
- Développement d’un environnement technique interne aligné avec les enjeux data, sécurité, IT associés aux questions d’intégration de l’IA générative.
Un faible niveau d’attention porté aux enjeux de souveraineté, de confidentialité, de sécurisation des informations sensibles et des secrets de l’entreprise. Cela est d'autant plus surprenant si l'on considère l'attention que ces sujets recevaient il y a seulement dix ans, notamment avec l’utilisation des moteurs de recherches américains, le partage de documents internes sur les plateformes de messagerie de ces mêmes acteurs et des enjeux et préoccupations, justifiées, de sécurité informationnelle.
Que cela soit au travers des interfaces web ou des APIs des fournisseurs de LLMs (OpenAI, Gemini, Copliote…), vous révélez autant d’information sur vos centres d’intérêts au travers des prompts que vous exécutez qu’au travers de vos requêtes sur des moteurs de recherche. De même pour les documents que vous partagez pour en faire des analyses, synthèses et qui se retrouvent sur des serveurs à minima. Pire encore, ces documents alimentent des LLMs et sont intégrés dans les apprentissages des LLMs.
De mon point de vue, le recours aux services sécurisé de ces acteurs, les « SecureChatGpt » et consorts avec leurs promesses de non-exploitation des ressources et prompts n’est pas une alternative satisfaisante en matière de veille stratégique et d’intelligence économique. Ces promesses (de période électorale) n’engagent que ceux qui y croient.
Ainsi à quelques rares exceptions, les retours d’expérience partagés se reposaient sur l’utilisation d’IA non européennes, avec transfert des données hors du sol européens et donc sans réelle sécurisation des données. Parmi les exceptions, le groupe Orange et ses salariés chanceux, qui bénéficient d’un accès sécurisé, auto-hébergé, à un ensemble de modèles LLMs pour pourvoir expérimenter en toiture sécurisé et avec des données internes ; et deux groupes ou centre de recherche à forte dimension technique.
Pour ma part, une préoccupation réelle soulevée à l'issue du IES Forum concerne l'avenir des compétences et des connaissances des veilleurs, analystes et experts dans les années à venir : comment pourront-ils continuer à développer leurs savoirs et à renforcer leurs compétences ? Si un consensus semble s’être établi sur les limites actuelles des IA génératives, notamment en ce qui concerne leurs capacités d’analyse, un autre point fait également l’unanimité : les modèles de langage (LLMs) se révèlent redoutablement efficaces pour réaliser des résumés, des synthèses, des états de l’art ou encore des premiers niveaux d’analyse. Ces outils peuvent ainsi grandement faciliter le travail des experts, analystes et veilleurs en leur faisant gagner un temps précieux.
Dans nos organisations, où la quête de productivité, d’économie et de performance est omniprésente, l’intégration des IA génératives dans les outils du quotidien semble inévitable. Lorsque ces technologies auront pleinement intégré la couverture fonctionnelle des tâches des salariés, il n’y aura qu’un pas à franchir pour que les managers attendent de leurs équipes une production de synthèses ou de livrables en une fraction du temps qui leur était auparavant alloué. Par exemple, un état de l’art sur une technologie, qui mobilisait autrefois un expert scientifique ou technique pendant plusieurs semaines, pourrait désormais être généré en 30 minutes. Sur le plan de la production pure, l’attrait est évident, et le calcul du gain de temps paraît indiscutable.
Cependant, cette approche pragmatique de la productivité occulte un élément fondamental : les apports en connaissance pour l’humain qui réalise cet état de l’art. Yann Le Cun n’est pas devenu une référence mondiale en machine learning en se contentant de lire un état de l’art généré par une IA. Lire les ressources, analyser les études, tirer des fils, explorer des travaux connexes, et découvrir par sérendipité de nouvelles informations – parfois non immédiatement utiles mais précieuses dans un autre contexte – constituent des étapes incontournables pour développer ses compétences et enrichir son expertise.
C’est en plongeant profondément dans les études, en se posant des questions et en investiguant que l’on construit une véritable maîtrise. Les IA génératives, aussi performantes soient-elles, ne peuvent remplacer ce processus humain d’apprentissage et d’exploration intellectuelle.
Je vous invite à découvrir le magnifique ouvrage Vu, lu, su de Jean-Michel Salaun : Être simplement exposé à une information (vu) ne suffit pas pour réellement la comprendre et l’assimiler. Il est nécessaire de prendre le temps de lire (lu) et d'analyser (su) pour en tirer un véritable savoir. Lire ne consiste pas seulement à consommer passivement une information, mais à la questionner, la croiser avec d'autres connaissances et l'intégrer dans un raisonnement personnel.
Cela encourage l'individu à devenir acteur de sa propre éducation et non un simple récepteur. Soyons-en bien certain, l’information brute n’est pas équivalente au savoir. Le savoir implique un processus de sélection, d’analyse et de réflexion, qui passe nécessairement par la lecture et l'étude approfondie.
Pour finir, je vous partage cet article de Laura Hazard Owen, journaliste au Nieman Journalism Lab : « I’m a journalist and I’m changing the way I read news. This is how. » qui explique pourquoi elle souhaite revenir à une réelle lecture des articles : « Ces dernières années, j'ai lu des tweets sur des articles, mais pas les articles en entier. J'ai lu des captures d'écran de ces mêmes articles qui pointaient uniquement les détails les plus scandaleux. Bien-sûr, extraire les meilleurs morceaux d'un article, ça fait les meilleurs posts sur les réseaux sociaux. Mais trop souvent, je ne clique pas. Je me retrouve donc à la fin avec la petite phrase choquante du papier... et rien d'autre. Au lieu d'essayer de me faire mon propre avis sur l'histoire racontée dans l'article, je me contente d'ingérer les réactions des autres. »
Et vous, lirez-vous les synthèses et résumes de LLMs ou les études complètes et les articles ?
Envie de faire décoller votre projet de veille ?
Suivez-nous sur Linkedin