IA générative : le grand défi est la formation des collaborateurs
Emerton Data, société de conseil spécialisée dans les domaines de la transformation des données et de l’Intelligence Artificielle, a mené une enquête approfondie sur l’adoption de l’IA générative, basée sur des entretiens menés auprès des responsables de 16 organisations, dont une majorité de grandes entreprises françaises (parmi lesquels Edenred, Sodexo, TotalEnergies, Crédit Agricole ou encore Crédit Mutuel Arkéa), mais également des institutions clés de l’économie du numérique (Bpifrance, la Direction Générale des Entreprises).
Née du constat que les nombreuses études concernant l’adoption de l’IA générative par les entreprises sont majoritairement anonymes et offrent de ce fait des conclusions de nature souvent générique, l’ambition de l’enquête L’IA générative en entreprises à l’épreuve du réel est d’effectuer un panorama documenté, fondé sur des exemples précis et contextualisés. En particulier, elle vise à répondre à ces questions-clés :
- Comment faire les meilleurs choix de technologies et de cas d’usage ? A quels besoins métiers répondre en priorité ?
- Quels “paris” faire sur les IA génériques ou spécialisées et coeur de métier ?
- Comment assurer la robustesse et la confiance au regard des exigences au regard de la régulation ?
- Comment préparer les organisations à l’évolution du travail, par une intégration profonde de l’IA générative dans les processus décisionnels et fonctionnels ?
- Comment répondre aux enjeux environnementaux et de souveraineté en Europe ?
« Le temps de ce livre blanc, nous proposons de mettre sur pause les discussions sans fin sur le potentiel de valeur, la vitesse de l’innovation, et les fantasmes sur la singularité et le remplacement de l’humain, pour nous intéresser aux questions concrètes qui se posent quotidiennement dans les entreprises, qu’il s’agisse de nos fleurons industriels ou de nos startups, en fournissant une photographie la plus contextualisée possible, expose Aimé Lachapelle, fondateur d’Emerton Data. Les résultats de l’enquête démontrent qu’un an et demi après l’apparition de ChatGPT, toutes les entreprises interrogées ont industrialisé des cas d’usages utilisant l’IA générative, qui est devenue une priorité en matière d’investissement. Au-delà de l’amélioration de l’efficacité des processus internes, on assiste à une multiplication des cas d’usages, dont certains semblent s’orienter vers l’interaction client, une application à fort potentiel mais complexe à mettre en oeuvre. Par ailleurs, une majorité d’entreprises relève que le défi majeur au déploiement de l’IA générative est désormais la formation des collaborateurs à grande échelle. Enfin, nos experts se montrent raisonnablement optimistes quant à la place de la France dans le concert mondial de l’IA générative, malgré des défis incontestables à relever ».
L’IA générative, priorité de toutes les entreprises interrogées
L’intelligence artificielle générative, ou IA générative, désigne les technologies qui permettent aux machines de générer du contenu en comprenant et en assimilant des données textuelles, visuelles ou sonores. Ces systèmes utilisent des modèles d’apprentissage profond, y compris des modèles de langage de grande taille (LLM), pour produire des résultats qui peuvent être adaptés à diverses applications, allant de la création de textes et d’images à la génération de musique ou de discours.
L’ensemble des experts interrogés dans l’étude s’accordent sur le fait que l’adoption de l’IA générative par les entreprises, bien plus qu’une simple évolution technologique, marque une transformation profonde dans la conception même des modèles d’affaires et des processus internes, et représente à ce titre une priorité d’investissement. Tous les responsables interrogés affirment avoir déjà lancé plusieurs projets ambitieux, d’une grande diversité.
Cet intérêt croissant se traduit notamment par la mise en place de datalabs dédiés à l’exploration et à l’exploitation de ces technologies. De nombreuses entreprises ont développé leurs propres versions sécurisées de modèles tels que ChatGPT, souvent désignées sous le nom de SecureGPT, adaptées à des exigences spécifiques de confidentialité et de sécurité, et intégrant à ce titre des politiques de contrôle d’accès et de protection des données.
Maxime Marembaud, Group Chief Data Officer de Sodexo, détaille quant à lui trois cas d’usage principaux : le support aux ventes, qui vise à apporter un premier niveau de réponse assisté par IA générative dans le cadre des appels d’offre ; la gestion de la lecture et de la compréhension des contrats ; enfin, un support à la création des contenus marketing et communication, incluant l’analyse des retours des consommateurs.
Emmanuel Papadacci-Stephanopoli, Chief Product Officer de la Fabrique by CA, le start-up studio du groupe Crédit Agricole, promeut une stratégie très directe et expérimentale d’innovation, encourageant les start-ups de son studio à tester et exploiter les derniers modèles avant les concurrents, en s’attaquant à des problématiques très concrètes. Leur objectif n’est pas de créer des start-ups dédiées à l’IA générative, mais d’exploiter cette technologie pour résoudre des problèmes métier spécifiques. Ainsi, GENIAL, leur dernière start-up, aide des acteurs territoriaux à déployer des programmes de financement fléchés sur le territoire, en facilitant la mise en relation avec les bénéficiaires. Cette technologie versatile, qui permet d’offrir une information claire et personnalisée, a permis à GENIAL de gagner un appel d’offres d’Atout France pour France.fr, site qui accompagne les Jeux Olympiques, afin de déployer un module d’accompagnement qui offrira des suggestions touristiques personnalisées aux touristes.
Pascal Simon, Investment Strategist chez Kaukana Ventures, le start-up studio d’Emerton Data, partage cette vision d’une innovation agile, proche des problématiques métiers. Il cite l’exemple de la start-up Agrisight. Développée initialement pour un client de la société de conseil, sa plateforme d’IA permet d’optimiser la chaîne logistique des exploitations céréalières, augmentant leurs marges et diminuant leur empreinte carbone. Cette solution prometteuse a été incubée et développée au sein de Kaukana Ventures, jusqu’au premier produit industrialisé et aux premières références commerciales, avant de permettre à la start-up de s’associer avec une autre entreprise de l’agritech pour continuer son développement.
Relation client : de grandes attentes, mais la prudence reste de mise
Alors que l’utilisation de l’IA générative dans les entreprises était initialement centrée sur l’amélioration de l’efficacité opérationnelle interne, c’est désormais la relation client qui semble devoir être redéfinie au prisme de cette technologie. Cette évolution pose de nouveaux défis, notamment en raison des risques associés à l’utilisation des LLM, tels que la propagation de fausses informations, les hallucinations et les discriminations potentielles.
Afin d’atténuer ces risques, certaines entreprises choisissent d’externaliser la gestion et le test de leurs LLMs. Giskard, une start-up française, s’est ainsi spécialisée dans l’évaluation de la fiabilité des chatbots avant leur déploiement. La méthode innovante qu’ils utilisent, baptisée LLM as a judge, implique un échange entre le chatbot à évaluer et un autre LLM, souvent plus puissant, pour évaluer sa propension à créer des hallucinations. Jean-Marie John-Mathews, cofondateur de Giskard, souligne que les entreprises sont conscientes des risques réputationnels liés aux chatbots ; ainsi, son équipe a déjà dû arrêter plusieurs projets dont les risques étaient jugés trop élevés.
Malgré les opportunités offertes par l’IA générative pour l’interaction clients, certaines entreprises restent prudentes, choisissant de ne pas l’adopter pour maintenir la qualité de la relation client existante, et expriment ainsi des réserves quant à la maturité actuelle de l’IA générative dans le cadre d’une interaction directe avec les clients.
“Je ne pense pas non plus que l’IA générative soit pour le moment assez mature pour être mise en interaction directe avec les clients, ni que ce soit une direction qu’on envisage aujourd’hui pour notre expérience client”, déclare Ahmed Besbes – Chief Data Officer de Direct Assurance.
Harriet Rees, Chief Information Officer de Starling Bank, une néobanque du Royaume-Uni, souligne que les LLMs peuvent constituer un outil fondamental pour les équipes en charge des principaux aspects de la relation client, et permettent ainsi à Starling de proposer à ses clients une expérience optimale. Cependant, elle juge nécessaire de s’assurer que les interactions plus sensibles, comme le traitement des réclamations ou la gestion de problèmes complexes nécessitant un jugement subjectif, restent entre les mains d’experts humains pour le moment.
D’une manière générale, le contrôle des risques d’« hallucination » de l’IA est un sujet fondamental. Marcin Detyniecki, Group Chief Data Scientist chez AXA, explique : « Il faut être vigilant avec l’utilisation du terme « hallucination ». Cela est généralement compris comme le cas où la réponse est tellement éloignée de la réalité qu’instantanément elle est identifiée comme étant fausse. Mais, dans certains cas, la machine peut donner une réponse fausse, mais néanmoins réaliste. Pour le moment, les modèles « hallucinent » encore trop souvent face à certaines tâches bien spécifiques pour pouvoir être automatisés. Pour prendre un exemple chez AXA, des questions relatives à des sinistres qui nécessitent des données externes à l’entreprise doivent encore améliorées. Nous faisons donc en sorte que les modèles que nous utilisons ne répondent pas à des questions pour lesquelles ils ne disposent pas d’information suffisante pour répondre de manière fiable ».
Plus encore que pour l’IA traditionnelle, le grand défi réside dans la formation des collaborateurs
Pour l’ensemble des experts interrogés, la formation des collaborateurs est un enjeu incontournable mais particulièrement complexe, puisqu’il ne doit pas seulement aborder les aspects techniques, mais également préparer les collaborateurs à comprendre les implications stratégiques, éthiques et pratiques de ces technologies.
Renata Alves Santos, Deputy Chief Data Officer de TotalEnergies confie que le déploiement-pilote de Copilot, l’outil de Microsoft basé sur l’IA générative a permis de comprendre l’importance de l’accompagnement des utilisateurs, indispensable afin que chaque collaborateur puisse vraiment tirer profit de l’outil.
L’entreprise a donc mis en place une formation pratique lors de laquelle sont présentées toutes les fonctionnalités de MS Copilot et l’ensemble des cas d’usage possibles déjà identifiés, véritable prérequis au déploiement à grande échelle du service. A cet effet, l’équipe de formation a une composition très transverse : digital, data, IT, cyber, RH permettant de répondre à toutes les questions d’ordre « métier ».
“Le processus d’acculturation est à double sens : la formation des collaborateurs va de pair avec le recueil de leurs besoins ”, ajoute Renata Alves Santos – Deputy Chief Data Officer de TotalEnergies.
Enfin, une large communauté a été créée pour faire circuler l’information et favoriser l’innovation, qui a permis de créer du lien entre des collaborateurs qui ne se seraient peut-être jamais rencontrés au sein de TotalEnergies, démontrant ainsi la dimension culturelle de cette appropriation à grande échelle de l’IA générative.
Malt a poussé l’innovation en permettant à ses équipes de créer de manière autonome des agents d’IA générative. Claire Lebarz, CDO et AI Officer de l’entreprise, souligne que cette plateforme interne est liée à diverses bases documentaires, offrant des supports variés : documentation de l’équipe engineering, connaissance interne du produit, soutien RH aux managers, création de contenu pour les designers…. Selon elle, si 2023 a été une année de conceptualisation et de planification, 2024 marque un tournant avec une focalisation sur l’exécution et le déploiement des applications d’IA générative, indiquant une maturation de l’approche des entreprises.
Le groupe Sodexo, qui emploie 400 000 collaborateurs dans 45 pays, développe ses activités de façon très décentralisée. Dans ce contexte, le déploiement d’un assistant IA a commencé par une phase pilote impliquant 1000 collaborateurs. L’enjeu est double : bien identifier les usages les plus pertinents, en les rattachant aux métiers de l’entreprise, pour prioriser le déploiement à grande échelle, et bien estimer les besoins de conduite du changement associés. Dans ce contexte, l’acculturation et la gouvernance sont clés afin de garantir une utilisation optimale des outils et de la protection des données propriétaires de l’entreprise, étant donné la multitude des outils d’IA générative actuellement disponibles au grand public. De manière générale, dans une perspective d’amélioration des usages digitaux, différentes communautés, dédiées chacune à un métier spécifique, ont été créées.
Pour Maxime Marembaud, dans la mesure où certaines fonctions vont devoir se transformer totalement afin de bénéficier au maximum de la valeur de l’IA générative, il est capital d’anticiper l’impact qu’aura la technologie sur les métiers, en termes de gains de productivité et d’augmentation de la valeur.
Ahmed Besbes, Chief Data Officer de Direct Assurance, distingue deux niveaux dans le développement des compétences : un premier volet de formation et d’acculturation de l’ensemble des collaborateurs, et un second consacré au développement de l’expertise interne sur ces sujets : comprendre comment les modèles fonctionnent, quelles sont leurs limites, leurs modèles de coût, les architectures IT possibles… pour s’assurer de réaliser les bons choix techniques. L’IA générative évoluant très vite, le travail de veille doit être constant. Le suivi des enjeux réglementaires est également indispensable en vue de déployer l’IA générative de manière totalement maîtrisée.
Pour Maxime Havez, Chief Data Officer de Crédit Mutuel Arkéa, il ne faut pas négliger l’effet d’auto-acculturation qu’a apporté l’IA générative. Alors qu’auparavant, il appartenait aux seules structures de type IA Factory ou datalabs d’injecter l’IA dans les processus des grandes entreprises, et de faire émerger des cas d’usage à forte valeur ajoutée, l’IA générative s’est imposée grâce à des outils très grand public, faciles à prendre en main, comme ChatGPT. Les équipes opérationnelles d’Arkéa ont adopté spontanément ces outils ce qui leur a permis de comprendre directement l’apport de ces technologies, et de formuler des demandes d’autres cas d’usage, inversant ainsi la relation traditionnelle avec le datalab.
“Il arrive que nos équipes formulent des demandes de nouveaux cas d’usage basés sur l’IA générative, et qui sont finalement adressables avec une IA plus traditionnelle“, ajoute Maxime Havez – Chief Data Officer – Crédit Mutuel Arkéa.
Enfin, au-delà des grands groupes, Vincent Rapp, Responsable Sectoriel Numérique de Bpifrance, est convaincu que 90% des usages finaux de l’IA se jouera dans le tissu de petites et moyennes entreprises et des ETI. Il est par conséquent vital de mettre en place des plans ambitieux d’accompagnement et de diffusion de l’IA, tels que le programme IA Booster France 2030 lancé par Bpifrance, qui s’adresse à cette cible spécifique, dans tous les secteurs d’activité.
Accepter de laisser partir les talents… mais savoir les faire revenir
L’ensemble des entretiens démontre une confiance dans la capacité de La France à tracer son propre chemin dans l’IA générative, malgré des défis en termes de ressources et d’expérience comparativement aux géants américains. Le consensus est que l’accent mis sur la souveraineté et l’innovation responsable, outre qu’il répond aux besoins exprimés par nombre d’entreprises, notamment européennes, peut permettre de positionner la France, qui dispose d’une formation de très haut niveau en mathématique et en informatique, comme un leader éthique et innovant dans le domaine de l’IA générative à l’échelle mondiale.
A ce propos, Catherine Duveau, Responsable de Département Data Science & Governance chez Safran Aircraft Engines, évoque la nécessité d’une infrastructure IT adaptée au niveau de sensibilité des données nécessaire, et des outils permettant une traçabilité stricte des traitements et entraînements des données. Bien que ces exigences de souveraineté puissent être vues comme un frein à l’innovation, elles offrent l’opportunité de mieux maîtriser et comprendre les modèles d’IA sous-jacents, posant ainsi les bases d’une innovation responsable et sécurisée. Dans le secteur de la défense, où tous les acteurs sont sujets à ces mêmes obligations, les américains ont l’avantage de pouvoir s’appuyer sur les infrastructures de Microsoft et Amazon, faisant du développement du cloud européen un enjeu vital pour les entreprises du vieux continent.
Il reste que les grandes entreprises américaines dominent grâce à leur accès privilégié à des capitaux massifs et à des infrastructures technologiques avancées, telles les supercalculateurs, essentielles pour développer des modèles d’IA comportant des milliards de paramètres.
Pour Guillaume Avrin, Coordonnateur national pour l’intelligence artificielle au sein de la Direction Générale des Entreprises, le principal intérêt de passer par les GAMAM, pour nos meilleurs ingénieurs, est d’avoir accès à de très importantes ressources de calcul pendant un temps suffisamment long. Cela permet d’obtenir une expérience du calcul « à l’échelle » pour l’entraînement de giga-modèles d’IA. Il rappelle que la plupart des cofondateurs des entreprises IA françaises qui lèvent d’importants fonds en ce moment – Mistral AI, H, etc. – sont ainsi passés par des entreprises américaines. Pour Guillaume Avrin, un des principaux parcours de formation d’excellence en IA est ainsi de faire ses études en mathématiques et en ingénierie en France, puis de passer un à trois ans chez un GAMAM pour enfin revenir créer son entreprise ici.
“On dit qu’il y a 50 talents de l’IA générative dans le monde, et ce sont en fait les 50 personnes qui ont eu accès à des supercalculateurs pendant un temps suffisamment long”, précise Guillaume Avrin – Coordonnateur national pour l’intelligence artificielle au sein de la DGE.
Vincent Rapp, Responsable Sectoriel Innovation et Stratégie IA de Bpifrance, voit lui aussi des vertus à ce que les meilleurs éléments français partent se former dans les entreprises de la Silicon Valley, à condition que l’on sache les faire revenir. Il estime à ce propos que non seulement les salaires qu’offre la France redeviennent compétitifs, mais que de nombreux cadres français, notamment parmi les plus expérimentés, peinent à s’ajuster à l’organisation des boîtes américaines, au sein d’équipes pléthoriques, où le turnover est d’ailleurs important. Beaucoup préfèrent revenir en France, où ils ont le sentiment d’avoir plus d’impact sur la vision de leur entreprise, quitte pour cela à baisser significativement leur rémunération.
Au-delà, Vincent Rapp insiste également sur l’importance des qualités individuelles des fondateurs dans le succès initial d’une start-up. En outre, l’enjeu de développer une IA générative française dépasse la simple considération économique pour toucher à la souveraineté nationale. Des acteurs comme Mistral AI et des solutions open source déployées sur des clouds français sont essentiels pour maintenir cette souveraineté.
Guillaume Avrin souligne l’effort national pour démocratiser l’accès aux ressources de calcul de haute performance. L’extension du supercalculateur Jean Zay hébergée par le CNRS, public et gratuit, en est le parfait exemple. Cette ressource est rendue accessible à tous, et des efforts sont faits pour l’intégrer avec des acteurs du cloud français tels que Scaleway, OVHcloud et OUTSCALE, garantissant ainsi que la puissance de calcul nécessaire à l’IA générative soit largement disponible.
Méthodologie de l’étude
Entretiens et enquête menés entre le 21/05/2024 et le 01/06/2024, de manière individuelle et dans le cadre de l’événement “The real deal of AI” organisé conjointement par Emerton Data et le Hub Institute (4 juin 2024), auprès de :
● Olivier Abecassis, Directeur Général, Qwant
● Renata Alves Santos, Deputy Chief Data Officer, TotalEnergies
● Lamiae Azizi, Associate Professor & Chief Scientific Officer AI, UM6P College of Computing
● Guillaume Avrin, Coordonnateur national pour l’intelligence artificielle, Direction générale des Entreprises
● Ahmed Besbes, Chief Data Officer, Direct Assurance
● Marcin Detyniecki, Group Chief Data Scientist chez AXA
● Catherine Duveau, Responsable de Département Data Science & Governance, Safran Aircraft Engines
● Maxime Havez, Chief Data Officer, Crédit Mutuel Arkéa
● Jean-Marie John-Mathews, co-fondateur, Giskard
● Yoach Lacombe, ML engineer, Hugging Face
● Claire Lebarz, Chief Data Officer & AI Officer, Malt
● Maxime Marembaud, Group Chief Data Officer, Sodexo
● Emmanuel Papadacci-Stephanopoli, Chief Product Officer, la Fabrique by CA / Crédit Agricole
● Vincent Rapp Responsable Sectoriel Numérique, Bpifrance
● Harriet Rees, Chief Information Officer, Starling Bank
● Pascal Simon, Investment strategist, Kaukana Ventures