Les travailleurs utilisent des outils d’intelligence artificielle pour augmenter la productivité individuelle, mais maintiennent leur activité au plus bas, ce qui pourrait nuire à la performance globale de leurs organisations, affirme un professeur de la Wharton Business School dans un blog publié dimanche.

« Aujourd’hui, des milliards de personnes ont accès à de grands modèles linguistiques (LLM) et aux avantages de productivité qu’ils apportent », a écrit Ethan Mollick dans son blog One Useful Thing. « Et, grâce à des décennies de recherche sur l’innovation étudiant tout le monde, des plombiers aux bibliothécaires en passant par les chirurgiens, nous savons que, lorsqu’ils ont accès à des outils à usage général, les gens trouvent des moyens de les utiliser pour rendre leur travail plus facile et meilleur. »

« Les résultats sont souvent des inventions révolutionnaires, des façons d’utiliser l’IA qui pourraient complètement transformer une entreprise », a-t-il poursuivi. « Les gens rationalisent les tâches, adoptent de nouvelles approches de codage et automatisent les parties chronophages et fastidieuses de leur travail. Mais les inventeurs ne parlent pas à leurs entreprises de leurs découvertes ; ce sont les cyborgs secrets, des humains augmentés par des machines qui se cachent.

Mollick a soutenu que les façons traditionnelles dont les organisations réagissent aux nouvelles technologies ne fonctionnent pas bien pour l’IA et que la seule façon pour une organisation de bénéficier de l’IA est d’obtenir l’aide de ses « cyborgs » tout en encourageant davantage de travailleurs à utiliser l’IA.

Cela nécessitera un changement majeur dans la façon dont les organisations fonctionnent, a soutenu Mollick. Ces changements incluent l’incorporation du plus grand nombre possible de l’organisation dans l’agenda de l’IA, la diminution des craintes associées à l’utilisation de l’IA et l’incitation des utilisateurs de l’IA à se manifester et à encourager les autres à utiliser l’IA.

Les entreprises doivent également agir rapidement sur certaines questions fondamentales, a ajouté Mollick. Que faites-vous des gains de productivité que vous pourriez réaliser ? Comment réorganiser le travail et tuer les processus rendus creux ou inutiles par l’IA ? Comment gérez-vous et contrôlez-vous le travail qui pourrait inclure des risques d’hallucinations liées à l’IA et des problèmes potentiels de propriété intellectuelle ?

Perturber les affaires

Aussi bénéfique que puisse être de faire sortir l’IA de l’ombre, cela pourrait être très perturbateur pour une organisation.

« L’IA peut avoir un impact positif de 30 % à 80 % sur les performances. Soudain, un employé marginal doté d’une IA générative devient une superstar », a observé Rob Enderle, président et analyste principal du groupe Enderle, une société de services de conseil à Bend, Ore.

« Si l’IA générative n’est pas divulguée, cela peut soulever des questions quant à savoir si un employé triche ou s’il s’est relâché plus tôt », a-t-il déclaré à TechNewsWorld.

« La partie secrète n’est pas aussi perturbatrice qu’elle est potentiellement problématique pour le responsable et l’employé, en particulier si l’entreprise n’a pas encore défini de politique sur l’utilisation et la divulgation de l’IA », a ajouté Enderle.

L’utilisation de l’IA pourrait générer une vision irréaliste des connaissances ou des capacités d’un employé, ce qui pourrait conduire à des attentes dangereuses sur la route, a déclaré Shawn Surber, directeur principal de la gestion des comptes techniques chez Tanium, un fournisseur de gestion convergée des terminaux, à Kirkland, Washington.


Il a cité l’exemple d’un employé qui utilise une IA pour rédiger un rapport détaillé sur un sujet pour lequel il n’a aucune expertise approfondie. « L’organisation peut les considérer comme un expert, mais en réalité, ils ont juste utilisé une IA pour rédiger un seul rapport », a-t-il déclaré à TechNewsWorld.

Des problèmes peuvent également survenir si un employé utilise l’IA pour produire du code ou traiter une documentation qui alimente directement les systèmes d’une organisation, a ajouté Surber. « Les IA à grand modèle de langage sont excellentes pour générer de grandes quantités d’informations, mais si elles ne sont pas soigneusement vérifiées, cela pourrait créer des problèmes système ou même des problèmes juridiques pour l’organisation », a-t-il expliqué.

Utilisation insensée de l’IA

L’IA, lorsqu’elle est bien utilisée, donnera aux travailleurs un gain de productivité qui n’est pas intrinsèquement perturbateur », a affirmé John Bambenek, principal chasseur de menaces chez Netenrich, une société d’opérations informatiques et de sécurité numérique à San Jose, en Californie.

« C’est l’utilisation irréfléchie de l’IA qui peut être perturbatrice pour les travailleurs, tout simplement en ne passant pas en revue les résultats de ces outils et en filtrant les réponses absurdes », a-t-il déclaré à TechNewsWorld.

Comprendre la logique derrière les résultats de l’IA générative nécessite souvent des connaissances spécialisées, a ajouté Craig Jones, vice-président des opérations de sécurité chez Ontinue, un fournisseur de détection et de réponse gérées à Redwood City, en Californie.

« Si les décisions sont aveuglément motivées par ces résultats, cela peut conduire à des stratégies erronées, des préjugés ou des initiatives inefficaces », a-t-il déclaré à TechNewsWorld.

Jones a affirmé que l’utilisation clandestine de l’IA pourrait cultiver un environnement d’incohérence et d’imprévisibilité au sein d’une organisation. « Par exemple, dit-il. « Si un individu ou une équipe exploite l’IA pour rationaliser les tâches ou augmenter l’analyse des données, leurs performances pourraient éclipser considérablement ceux qui n’emploient pas de ressources similaires, créant des résultats de performance inégaux. »

De plus, a-t-il poursuivi, l’IA utilisée sans sensibilisation managériale peut soulever de sérieux dilemmes éthiques et juridiques, en particulier dans des secteurs comme les ressources humaines ou la finance. « Les applications d’IA non réglementées peuvent perpétuer par inadvertance des préjugés ou enfreindre les exigences réglementaires. »

Interdire l’IA n’est pas une solution

Aussi perturbatrice que puisse être l’IA, interdire son utilisation par les travailleurs n’est probablement pas la meilleure solution. Parce que « l’IA fournit une augmentation de 30% à 80% de la productivité », a réitéré Enderle, « l’interdiction de l’outil rendrait, en effet, l’entreprise incapable de rivaliser avec ses pairs qui adoptent et utilisent correctement la technologie ».

« C’est un outil puissant », a-t-il ajouté. « Ignorez-le à vos risques et périls. »


Une interdiction pure et simple n’est peut-être pas la bonne voie à suivre, mais il est approprié d’établir des lignes directrices sur ce qui peut et ne peut pas être fait avec l’IA publique, a noté Jack E. Gold, fondateur et analyste principal chez J. Gold Associates, une société de conseil en informatique. , à Northborough, Mass.

« Nous avons mené une enquête auprès des utilisateurs professionnels pour leur demander si leurs entreprises avaient une politique sur l’utilisation de l’IA publique, et 75 % des entreprises ont répondu non », a-t-il déclaré à TechNewsWorld.

« Donc, la première chose que vous voulez faire si vous craignez que vos informations ne soient divulguées est de définir une politique », a-t-il déclaré. « Vous ne pouvez pas crier sur les gens pour ne pas suivre la politique s’il n’y en a pas. »

La fuite de données peut constituer un risque de sécurité considérable lors de l’utilisation d’applications d’IA génératives. « Une grande partie des risques de sécurité liés à l’IA proviennent des informations que les gens y mettent », a expliqué Erich Kron, défenseur de la sensibilisation à la sécurité chez KnowBe4, un fournisseur de formation à la sensibilisation à la sécurité à Clearwater, en Floride.

« Il est important de comprendre que les informations sont essentiellement téléchargées vers ces tiers et traitées via l’IA », a-t-il déclaré à TechNewsWorld. « Cela pourrait être un problème important si les gens ne pensent pas aux informations sensibles, aux PII ou à la propriété intellectuelle qu’ils fournissent à l’IA. »

Dans son blog, Mollick a noté que l’IA est là et a déjà un impact dans de nombreux secteurs et domaines. « Alors, préparez-vous à rencontrer vos cyborgs », a-t-il écrit, « et commencez à travailler avec eux pour créer une nouvelle et meilleure organisation pour notre époque hantée par l’IA. »

A lire également