Malgré les milliards dépensés en IA générative, la plupart des entreprises ne parviennent toujours pas à obtenir un retour sur investissement mesurable. Une nouvelle analyse suggère que le problème ne réside pas dans les algorithmes ou l’ambition mais dans la couche cachée en dessous : l’infrastructure des données. Les experts affirment que les goulets d’étranglement en matière de stockage, d’évolutivité et de performances empêchent l’IA d’entreprise d’aller au-delà des projets pilotes vers une production génératrice de profits.

Une étude récente du Massachusetts Institute of Technology (MIT) a révélé que, bien que les entreprises américaines investissent entre 30 et 40 milliards de dollars dans l’intelligence artificielle générative (GenAI), 95 % d’entre elles n’ont constaté aucun retour mesurable, et seulement 5 % ont réussi à déployer des outils à grande échelle. Le problème n’est pas l’infrastructure ou le talent mais la technologie elle-même.

Selon les chercheurs, les systèmes d’IA actuels manquent de mémoire, d’adaptabilité et de capacité à s’intégrer dans des flux de travail critiques. De nombreux médias ont rapporté l’étude du MIT, mais elle n’est pas disponible directement auprès du MIT.

Une découverte clé a révélé qu’il existe un vaste gouffre entre un petit groupe d’entreprises qui extraient des millions de dollars de valeur de l’IA et la grande majorité, qui n’ont aucun impact mesurable sur leurs comptes de profits et pertes. Quatre raisons principales soutiennent cette affirmation.

Les pièges qui font dérailler les projets GenAI

La plupart des initiatives GenAI échouent souvent au stade pilote. Seulement 5 % des plus de 300 mises en œuvre publiques parviennent à passer en production avec un impact mesurable. Une intégration défectueuse dans l’entreprise, et non la qualité des modèles d’IA eux-mêmes, résulte d’outils qui ne parviennent pas à tirer les leçons des retours d’informations et ne sont pas bien intégrés dans les opérations quotidiennes.

Un autre facteur contribuant aux faibles résultats du retour sur investissement est le fait que les employés utilisent de manière indépendante des outils de « l’économie fantôme de l’IA », tels que ChatGPT. Une autre raison d’échec est l’inadéquation des priorités lors de l’allocation des budgets d’IA. Les ventes et le marketing reçoivent environ 50 % du financement, même si l’automatisation du back-office est plus susceptible de générer des retours significatifs et mesurables.

L’échec du retour sur investissement s’étend à tous les niveaux de l’entreprise, selon Björn Kolbeck, PDG et co-fondateur de Quobyte. Il a noté que certains proviennent de produits imposés aux utilisateurs par les PDG ou de « fonctionnalités d’IA » à moitié cuites. Sur le plan technique, les modèles sont souvent retardés ou sous-entraînés en raison de la faiblesse des infrastructures, le stockage étant souvent le principal goulot d’étranglement.

« Tous souffrent si vous ne pouvez pas alimenter les GPU à grande échelle – (en termes de) mémoire, d’adaptabilité et d’intégration », a-t-il déclaré à TechNewsWorld.

Pourquoi un stockage faible paralyse le retour sur investissement de l’IA

Björn Kolbeck, PDG et co-fondateur de Quobyte

Kolbeck considère que les entreprises investissent des milliards tout en négligeant un stockage adéquat pour prendre en charge leur infrastructure d’IA comme l’une des erreurs majeures commises par les entreprises. Il a déclaré que la surveillance conduit à trois facteurs d’échec clés : des silos purulents, un manque de performances et des dilemmes en matière de disponibilité.

La ressource la plus critique pour l’IA est la formation aux données. Lorsque les entreprises stockent leurs données dans plusieurs silos, les data scientists n’ont pas accès aux détails essentiels.

« Les systèmes de stockage doivent être capables d’évoluer et de fournir un accès unifié pour permettre un lac de données IA, un stockage centralisé et efficace pour l’ensemble de l’entreprise », a-t-il observé.

Un manque de performances s’installe lorsque le système de stockage ne peut pas répondre aux demandes des GPU utilisés pour la formation ou le réglage fin. Cela fait que des ressources coûteuses restent inutilisées, frustre les data scientists et retarde les projets.

« De la même manière, lorsque les solutions de stockage ne sont pas conçues pour offrir des performances et une disponibilité maximales – comme c’est le cas de nombreux systèmes de stockage HPC – on se retrouve avec le même problème : des projets retardés », prévient-il.

Le stockage traditionnel présente des risques pour les workflows d’IA critiques

Le rapport du MIT note que les déploiements réussis d’IA s’intègrent à grande échelle. Cela nécessite un stockage tolérant aux pannes.

Le stockage traditionnel signifie généralement le stockage d’entreprise. Bien qu’ils soient fiables, ils ne peuvent pas évoluer, a prévenu Kolbeck.

« Les premiers projets d’IA fonctionnent peut-être bien, mais dès que ces projets grandissent (comme dans le cas d’un plus grand nombre de GPU), ces baies basculent, et c’est à ce moment-là que les flux de travail critiques s’arrêtent », a-t-il déclaré.

Kolbeck a expliqué la différence entre une architecture évolutive et une approche à grande échelle comme meilleure option pour gérer les demandes de données massives et imprévisibles de l’IA et du ML modernes. Il a cité l’expérience de son entreprise dans cette transition.

Quobyte fournit un système de fichiers parallèle qui transforme les serveurs de base en une solution de stockage évolutive et hautes performances. Dans le passé, les solutions de mise à l’échelle ont toujours échoué.

Quobyte s’est donc retrouvé avec une mise à l’échelle. Il a noté que l’entreprise avait constaté la tension dans le HPC, où les machines vectorielles ont cédé la place aux clusters, dans les puces informatiques, où les processeurs modernes sont évolutifs, et également dans le cloud.

Le même principe s’applique à la formation en IA. Si vous ne pouvez pas évoluer, vous êtes limité quant au nombre et à la taille des modèles que vous pouvez entraîner ou affiner.

« Le stockage doit suivre cette évolution horizontale. Lorsque vous ajoutez des GPU, votre stockage doit pouvoir évoluer en même temps », a-t-il déclaré.

Résoudre les défis de données les plus difficiles

Les flux de travail d’IA impliquent un mélange de petits et de gros fichiers. Considérez les exigences de performances massives qui surviennent lorsque de nombreux GPU accèdent aux données en parallèle, ainsi que la gestion de plusieurs utilisateurs ayant des exigences variables sur le même système de stockage.

« Le développement et la formation de la technologie de l’IA sont encore un processus très expérimental et nécessitent que l’infrastructure, y compris le stockage, s’adapte rapidement lorsque les scientifiques des données développent de nouvelles idées », a noté Kolbeck.

L’analyse des performances en temps réel est essentielle. Les administrateurs de stockage doivent être capables d’identifier précisément l’impact des applications, telles que la formation ou d’autres phases de pipeline, sur le stockage. La plupart des data scientists manquent de visibilité approfondie sur le stockage, et les administrateurs de stockage ont besoin de ces informations pour prendre des décisions éclairées sur la manière de modifier, d’optimiser et d’étendre le système de stockage.

Le moteur de gestion de données basé sur des règles de Quobyte s’adapte rapidement aux exigences changeantes de l’entreprise, des utilisateurs et de la charge de travail, offrant ainsi un contrôle complet. Les utilisateurs peuvent modifier comment et où ils stockent leurs fichiers et les organiser en quelques clics, a-t-il ajouté.

Résoudre les problèmes liés aux anciennes technologies

Kolbeck a décrit le stockage d’entreprise traditionnel comme étant construit autour d’une technologie vieille de 30 ans, y compris le protocole NFS, conçu par Sun Microsystems en 1984. Cette approche à l’ancienne ne peut pas répondre aux exigences d’évolutivité de l’IA.

Ses exemples préférés sont Yahoo et Google. Yahoo a construit son infrastructure sur des appareils de stockage d’entreprise basés sur NFS. Google, quant à lui, a construit toute son infrastructure sur le stockage logiciel en utilisant la technologie des systèmes distribués sur des serveurs bon marché.

« Penser que la même technologie de stockage recyclée permettra désormais aux entreprises d’exécuter une IA réussie relève davantage d’un vœu pieux », a-t-il suggéré.

Construire l’infrastructure nécessaire à la réussite des projets d’IA nécessite de penser comme un hyperscaler – une philosophie au cœur de l’approche de Quobyte. Le système de stockage défini par logiciel de la société applique des algorithmes de systèmes distribués pour fournir des performances fiables sur des serveurs de base, évoluant de manière transparente d’une poignée de machines à des centres de données entiers.

A lire également