Une enquête menée par Fivetran et le cabinet de recherche indépendant Vanson Bourne souligne l’importance de l’IA/ML (intelligence artificielle/machine learning) dans l’élaboration de modèles de prise de décision autonome.
Le grand public a pris conscience de la réalité et de la puissance de l’intelligence artificielle (IA) avec l’avènement de ChatGPT le 30 novembre 2022. Depuis, pas un jour ne passe sans qu’une information ne soit consacrée aux impacts de l’IA. Si les pessimistes s’inquiètent des risques de cette technologie dont les usages peuvent être détournés, les optimistes, eux, y voient de nouvelles opportunités de business, un relais de croissance pour les entreprises. C’est le cas par exemple des 550 cadres qui ont répondu à l’enquête en ligne "Fivetran + Vanson Bourne report: AI in 2024" aux États-Unis, au Royaume-Uni, en Irlande, en France et en Allemagne. Selon les résultats de cette enquête, neuf entreprises sur dix utilisent des méthodologies d'IA/ML (intelligence artificielle/machine learning) pour élaborer des modèles de prise de décision autonome. Autre signe de l’optimiste des entreprises (de 500 employés ou plus) quant à l’adoption de cette technologie, la quasi-totalité d’entre elles (97 % en moyenne) investiront dans l'IA générative au cours des deux prochaines années.
Est-on face à une révolution ? Notre rapport à la gestion des entreprises est-il en train de changer ? L’investigation de Fivetran et Vanson Bourne nous montre que l'essor de l'IA est significatif, offrant à la fois des opportunités et des défis dans sa mise en œuvre. D’après le rapport de cette enquête, 81 % des entreprises mondiales font confiance à leurs résultats en matière d'IA/ML (intelligence artificielle/machine learning) bien qu'elles admettent des inefficacités fondamentales au niveau des données. Les entreprises, dont le chiffre d'affaires annuel mondial moyen est de 5,6 milliards de dollars américain, indiquent perdre en moyenne 406 millions de dollars américain par an en raison de modèles d’IA peu performants. Des pertes consécutives à des modèles d'IA élaborés à partir de données inexactes ou de mauvaise qualité, ce qui peut se traduire par des décisions commerciales mal éclairées.
D’autres défis, outre l’inexactitude des données, ont également été exprimés par les répondants. Notamment ceux liés aux "hallucinations IA", c’est-à-dire les résultats incorrects ou trompeurs générés par les grands modèles de langage. Les interviewés ont également fait mention de préoccupations concernant la gouvernance et la sécurité des données. Les entreprises américaines qui utilisent de grands modèles de langage (LLM) signalent, par exemple, des inexactitudes et des hallucinations dans 50 % des cas. Ce qui fait dire à Taylor Brown, cofondateur et COO chez Fivetran, que l'adoption rapide de l'IA générative reflète en surface un optimisme et une confiance généralisés au sein des entreprises, même si les problèmes de données de base sont encore répandus, empêchant les entreprises de déployer pleinement leur potentiel en la matière.
Gaspillage de potentiel et craintes liées à l’utilisation de l’IA
Selon l’enquête, le gaspillage du potentiel des talents en matière de données et de la sous-performance des programmes d'IA s’expliquent par l’inaccessibilité des données, « peu fiables et incorrectes ». L'ampleur de cette difficulté est illustrée par le fait que la plupart des entreprises ont du mal à accéder à toutes les données nécessaires pour exécuter les programmes d'IA (69 %) et à nettoyer les données dans un format utilisable (68 %).
S’agissant des craintes liées à l'utilisation de l'IA générative, les entreprises évoquent le « maintien de la gouvernance des données » et le « risque financier dû à la sensibilité des données ». Elles se partagent la première place des préoccupations des entreprises (37 %). En France, les entreprises s’inquiètent plus de « l’augmentation des risques dû à la cybersécurité » (40 %), des « risques financiers dû à la sensibilité des données » (39 %) ainsi que du manque de réglementation (39 %).
Désaccord entre les cadres techniques et les salariés plus éloignés des détails techniques de l’IA
Si les entreprises dans leur ensemble utilisent l’IA, côté confiance il existe des dissonances entre les cadres techniques qui manipulent l’IA et les travailleurs qui sont plus éloignés des modèles de traitement des données. Selon le rapport, les cadres techniques sont moins convaincus de la maturité de leur entreprise en matière d'IA, 22 % d'entre eux seulement la qualifiant « d’avancée », contre 30 % des non-techniciens. Le niveau de confiance des salariés non techniques est également élevé quand il s’agit d’IA générative : 63 % d'entre eux lui font entièrement confiance, contre 42 % des cadres techniques.
L’étude met aussi en relief des désaccords entre les experts en données, en fonction de leurs niveaux d'ancienneté au sein d'une entreprise. Pour les travailleurs plus expérimentés, le principal obstacle à l'élaboration de modèles d'IA réside dans le fait que les employés possédant les compétences adéquates se concentrent sur d'autres projets (51 %). En fait, les entreprises admettent que leurs data scientists passent la majorité de leur temps (67 %) à préparer les données, plutôt qu'à construire des modèles d'IA, contre 33 % du temps consacré à la création de modèles d'IA. Quant aux travailleurs qui occupent des postes subalternes, ils pointent du doigt l’obsolescence des infrastructures informatiques (49 %) comme cause principale de ces obstacles.
Malgré cet état de fait, il y a des raisons d'être optimiste quant à l’adoption de l’IA, puisque la majorité (67 %) des entreprises interviewées prévoit de déployer de nouvelles technologies pour renforcer les fonctions de gouvernance et de sécurité des données.
Par Anselme AKEKO