L’IA en entreprise, un manque de confiance flagrant
Workday, l’un des leaders des solutions Cloud pour la gestion financière et les ressources humaines, publie une étude internationale révélant que l’IA suscite désormais de la défiance sur le lieu de travail.
Dirigeants comme collaborateurs s’accordent à dire que cette technologie offre des opportunités majeures en matière de transformation pour les entreprises. Cependant, un climat de méfiance subsiste quant à son déploiement responsable ; les collaborateurs se montrant encore plus sceptiques que leurs dirigeants.
Parmi les principaux enseignements de l’enquête :
- Seuls 62 % des dirigeants y sont favorables (C-suite ou leurs équipes directes). Ce pourcentage est encore moins élevé parmi les collaborateurs (52 %).
- Près du quart (23 %) des collaborateurs doutent que leurs intérêts passent avant ceux de l’organisation dans le cadre de la mise en place de l’IA.
- Plus de deux tiers (70 %) des dirigeants s’accordent à dire que l’IA devrait être développée de manière à permettre facilement l’intervention humaine.
- Une proportion majeure de collaborateurs (42 %) estiment que leur entreprise n’a pas clairement identifié quels systèmes doivent être entièrement automatisés et lesquels nécessitent une intervention humaine.
- Trois collaborateurs sur quatre affirment qu’il n’y a aucune collaboration au sein de leur organisation autour de la réglementation de l’IA.
- Quatre collaborateurs sur cinq affirment que leur entreprise n’a pas encore proposé de directives sur l’utilisation responsable de l’IA.
“ Il va sans dire que l’IA offre d’immenses possibilités de transformation pour les entreprises. Cependant, l’enquête montre que les dirigeants et collaborateurs doutent ou ne comprennent pas quelles sont les intentions de leur entreprise quant au déploiement de l’IA ”, déclare Jim Stratton, chief technology officer, Workday. “ Face à ce scepticisme, les entreprises doivent adopter une approche globale de responsabilité et de gouvernance de l’IA, en se focalisant sur la mise en place de politiques visant à trouver le juste équilibre entre confiance et innovation ”.
“ La mise en œuvre de normes éthiques relatives à l’utilisation de l’IA et du Machine Learning s’avère essentielle pour la réussite à long terme des entreprises. Alors que nous introduisons de plus en plus de technologies d’IA, nous sommes déterminés à instaurer un climat de confiance avec nos clients et collaborateurs ”, déclare Dan Cohen, chief information officer and director of operations chez The Amenity Collective. “ Notre objectif est de créer une culture en cohérence avec notre marque, d’adopter l’IA, et de permettre à chaque membre de notre entreprise de s’en servir au profit de nos clients. Je félicite Workday pour sa capacité à comprendre et à tenir compte du ressenti des dirigeants et des collaborateurs, afin de pouvoir dissiper ces doutes ”.
Une défiance généralisée
Concernant l’adoption et le déploiement responsable de l’IA au sein des entreprises, un scepticisme généralisé à tous les niveaux de responsabilité est constaté, en particulier au sein des collaborateurs non managers. Seuls 62 % des dirigeants y sont favorables et 62% également sont convaincus que leur entreprise fera le nécessaire pour que l’IA soit mise en œuvre de manière responsable et digne de confiance. Au sein des collaborateurs, ces pourcentages chutent à 52 % et 55 % respectivement.
Tous se disent également sceptiques quant à la bonne mise en place de l’IA par leur organisation. Ainsi, 23 % des collaborateurs doutent que leurs intérêts passent avant ceux de l’entreprise lors de la mise en œuvre de l’IA, et les dirigeants sont du même avis : 21 % d’entre eux craignent que les intérêts des collaborateurs passent au second plan.
IA et intervention humaine
Même s’ils ignorent comment s’y prendre, dirigeants et collaborateurs veulent que l’humain soit impliqué dans les processus liés à l’intelligence artificielle. Ainsi, 70 % des dirigeants s’accordent à dire que l’IA devrait être développée de manière à faciliter le contrôle et l’intervention humaine. Cependant, 42 % des collaborateurs estiment que leur entreprise n’a pas clairement identifié les systèmes à automatiser entièrement et ceux nécessitant une intervention humaine.
Une enquête réalisée précédemment par Workday sur l’IA confirme les préoccupations sur la capacité des entreprises à mettre en place cette technologie de manière efficace et responsable. Ainsi, près de trois quarts (72 %) des répondants affirment que leur organisation ne dispose pas des qualifications nécessaires en matière d’IA et de Machine Learning. Pire : 76 % des personnes interrogées estiment qu’elles doivent progresser dans leur maîtrise de ces applications.
Un besoin de gouvernance intelligente et transparente
Invités à imaginer un avenir où l’IA fait partie de leur quotidien, 42 % des dirigeants et 36 % des collaborateurs considèrent les régulations internes et les réglementations comme les facteurs les plus importants dans la création d’une IA digne de confiance.
Cependant, ils déplorent un manque de visibilité au sujet des réglementations et des consignes relatives à l’IA. Trois collaborateurs sur quatre affirment que leur entreprise ne travaille pas sur la réglementation de l’IA, et 4 sur 5 affirment que leur entreprise doit encore révéler des consignes claires sur une utilisation responsable de l’IA.
Ces données sont issues de l’étude mondiale Closing the AI Trust Gap réalisée par FT Longitude en novembre et décembre 2023 et commanditée par Workday. L’enquête a permis d’interroger 1 375 dirigeants et 4 000 collaborateurs à travers 15 pays et trois grandes régions : l’Amérique du Nord ; la région Asie-Pacifique-Japon ; et l’Europe, le Moyen-Orient et l’Afrique (EMEA). Les détails offrent une vision globale de la hiérarchie des organisations, et soulignent les perspectives des dirigeants et des collaborateurs en général.